diff --git a/pl/chat.json b/pl/chat.json index d941fbfa..7933d475 100644 --- a/pl/chat.json +++ b/pl/chat.json @@ -1,12 +1,12 @@ { "modelLoaderPlaceholder": "Wybierz model do załadowania", - "systemPromptPlaceholder": "Ustaw prompt systemowy", + "systemPromptPlaceholder": "Ustaw monit systemowy", "userRoleText": "Użytkownik", "assistantRoleText": "Asystent", "addMessageButtonText": "Dodaj", - "addMessageButtonText/toolTip": "Wstaw wiadomość do kontekstu bez wywoływania przewidywania", + "addMessageButtonText/toolTip": "Wstaw wiadomość do kontekstu bez uruchamiania predykcji", "sendMessageButtonText": "Wyślij", - "sendMessageButtonText/toolTip": "Wyślij swój prompt i historię rozmowy do modelu do przetworzenia", + "sendMessageButtonText/toolTip": "Wyślij monit i historię konwersacji do modelu w celu przetworzenia", "ejectButtonText": "Wysuń", "unloadTooltip": "Usuń model z pamięci", "cancelButtonText": "Anuluj", @@ -14,103 +14,239 @@ "advancedSegmentText": "Zaawansowane", "chatSegmentText": "Czat", "chatSidebarTitle": "Czaty", - "newChatButton": "Nowy czat", + "newChatButton": "Nowy", "newFolderButton": "Nowy folder", "viewModeLabel": "Tryb widoku", "noChatSelected": "Nie wybrano czatu", "chatViewOptions": "Opcje widoku czatu", "uiControls/title": "Ustawienia wyświetlania", "noChatSelectedPlaceholder": "Wybierz czat", - "unnamedChat": "Bez nazwy", - "emptyFolder": "Pusty folder", + "unnamedChat": "Czat bez nazwy", + "emptyFolder": "Folder jest pusty", + + "tokenCount": "Liczba tokenów", + "messageTokenCount": "Wprowadź liczbę tokenów", + "tokenCount/hint": "Liczba tokenów w wiadomości. Zliczona za pomocą tokenizera aktualnie wybranego modelu.\n\nWymaga załadowania modelu.", + "messageTokenCount/hint": "Liczba tokenów w wiadomości. Zliczona za pomocą tokenizera aktualnie wybranego modelu.\n\n**NIE** uwzględnia szacunkowej liczby tokenów w załącznikach.", + "notes": "Notatki z rozmowy", "notes/add/first": "Dodaj notatkę", "notes/add/another": "Dodaj kolejną notatkę", - "notes/hint": "Zapisz notatki do tego czatu. Notatki są tylko dla Twojej informacji i nie są wysyłane do modelu. Wszystkie zmiany zapisują się automatycznie.", - "notes/placeholder": "Wpisz swoje notatki tutaj...", + "notes/hint": "Zapisz notatki w tym czacie. Notatki służą wyłącznie do celów informacyjnych i nie są wysyłane do modelu. Wszystkie zmiany zapisują się automatycznie.", + "notes/placeholder": "Wpisz tutaj swoje notatki...", "notes/delete": "Usuń notatkę", "notes/noteLabel": "Notatka", - "notes/copyContent": "Skopiuj treść notatki", + "notes/copyContent": "Kopiuj treść notatki", "actions/sendMessage/error": "Nie udało się wysłać wiadomości", - "actions/loadModel/error": "🥲 Nie udało się załadować modelu", - "actions/addFile": "[Eksperymentalne] Dołącz plik do tej wiadomości\n(.pdf, tekstowy lub .docx)", - "actions/changeRole": "Przełączaj między rolami Użytkownika i Asystenta.\n\nTo jest przydatne do kierowania rozmową w określonym kierunku.\n\nMoże być używane do inscenizacji scenariuszy 'uczenia się na kilku przykładach' lub 'uczenia się w kontekście'", - "actions/addImage": "Dodaj obraz", - "actions/deleteMessage": "Usuń wiadomość", + "actions/loadModel/error": "🥲 Nie udało się zamontować modelu", + "actions/addFile": "[Eksperymentalne] Dołącz plik do tej wiadomości\n(.pdf, zwykły tekst lub .docx)", + "actions/addFile/label": "Załącz plik", + "actions/changeRole": "Przełączaj się między rolami Użytkownika i Asystenta.\n\nJest to przydatne, gdy chcesz pokierować rozmową w określonym kierunku.\n\nMożna tego używać do tworzenia scenariuszy „nauki w kilku ujęciach” lub „nauki w kontekście”.", + "actions/addImage": "Załącz obraz", + "actions/deleteMessage": "Usuń Wiadomość", "actions/deleteMessage/confirmation": "Czy na pewno chcesz usunąć tę wiadomość?", - "actions/copyMessage": "Skopiuj wiadomość", + "actions/copyMessage": "Kopiuj wiadomość", "actions/editMessage": "Edytuj wiadomość", - "actions/editMessage/cannotEditPreprocessed": "Nie można edytować przetworzonych wiadomości, ponieważ zostaną one nadpisane po uruchomieniu preprocesora. Aby edytować wiadomość, możesz: \n\n - Przełączyć się na oryginalną wiadomość i edytować ją zamiast tego, lub\n - Zmienić preprocesor tak, aby produkował pożądany wynik.", - "actions/regenerateMessage": "Wygeneruj wiadomość ponownie", - "actions/regenerateMessage/error": "Nie udało się wygenerować wiadomości ponownie", + "actions/editMessage/cannotEditPreprocessed": "Nie można edytować wstępnie przetworzonych wiadomości, ponieważ zostaną one nadpisane po uruchomieniu preprocesora. Aby edytować wiadomość, wykonaj jedną z następujących czynności: \n\n – przejdź do oryginalnej wiadomości i edytuj ją lub\n – zmień preprocesor, aby generował żądany wynik.", + "actions/regenerateMessage": "Wygeneruj ponownie wiadomość", + "actions/regenerateMessage/error": "Nie udało się ponownie wygenerować wiadomości", "actions/branchChat": "Rozgałęź czat po tej wiadomości", "actions/branchChat/error": "Nie udało się rozgałęzić czatu", "actions/continueAssistantMessage": "Kontynuuj wiadomość asystenta", - "actions/continueAssistantMessage/error": "Nie udało się kontynuować wiadomości asystenta", + "actions/continueAssistantMessage/error": "Nie udało się kontynuować komunikatu asystenta", "actions/predictNext": "Generuj odpowiedź AI", "actions/predictNext/error": "Nie udało się wygenerować odpowiedzi AI", - "actions/loadLastModel": "Załaduj ostatnio używany model", - "actions/loadLastModel/tooltip": "Kliknij, aby załadować model, który był ostatnio używany z tym czatem:\n\n{{lastModel}}", - "actions/loadLastModel/error": "Nie udało się załadować ostatnio używanego modelu.", + "actions/loadLastModel": "Zamontuj ponownie ostatnio używany model", + "actions/loadLastModel/tooltip": "Kliknij, aby zamontować model, który był ostatnio używany w tym czacie:\n\n{{lastModel}}", + "actions/loadLastModel/error": "Nie udało się zamontować ostatnio używanego modelu.", + "actions/clearLastUsedModel": "Wyczyść ostatnio używany model", + "actions/clearLastUsedModel/error": "Nie udało się wyczyścić ostatnio używanego modelu.", "actions/continueCurrentModel": "Użyj obecnego modelu", "actions/continueCurrentModel/tooltip": "Obecny model: {{currentModel}}", - "actions/changeToLastUsedModel": "Załaduj {{lastModel}}", + "actions/changeToLastUsedModel": "Zamontuj {{lastModel}}", "actions/changeToLastUsedModel/error": "Nie udało się zmienić na ostatnio używany model.", - "actions/changeToLastUsedModel/tooltip": "Używałeś innego modelu ostatnim razem, gdy wysłałeś wiadomość w tym czacie. Kliknij, aby usunąć obecnie wybrany model ({{currentModel}}) i załadować model, który był ostatnio używany z tym czatem:\n\n{{lastModel}}", - "actions/switchToLastUsedModel": "Przełącz na {{lastModel}}", - "actions/switchToLastUsedModel/tooltip": "Kliknij, aby przełączyć się na model, który był ostatnio używany z tym czatem:\n\n{{lastModel}}", - "actions/loadModel": "Załaduj model", - "actions/toggleViewingProcessed/currentlyFalse": "Obecnie oglądasz oryginalną wiadomość. Kliknij, aby zobaczyć przetworzoną wiadomość.", - "actions/toggleViewingProcessed/currentlyTrue": "Obecnie oglądasz przetworzoną wiadomość. Kliknij, aby zobaczyć oryginalną wiadomość.", - "actions/toggleViewingProcessed/hint": "Przed wysłaniem wiadomości do modelu, może ona być przetworzona przez preprocesor promptu. Kliknij, aby przełączać się między oglądaniem oryginalnej wiadomości a przetworzoną wiadomością. Tylko przetworzona wiadomość trafia do modelu.", + "actions/changeToLastUsedModel/tooltip": "Użyłeś innego modelu, gdy ostatnio wysyłałeś wiadomość w tym czacie. Kliknij, aby odmontować aktualnie wybrany model ({{currentModel}}) i zamontować model, który był ostatnio używany w tym czacie:\n\n{{lastModel}}", + "actions/switchToLastUsedModel": "Zmień na {{lastModel}}", + "actions/switchToLastUsedModel/tooltip": "Kliknij, aby przejść do modelu ostatnio używanego w tym czacie:\n\n{{lastModel}}", + "actions/loadModel": "Zamontuj model", + "actions/toggleViewingProcessed/currentlyFalse": "Aktualnie wyświetlana jest oryginalna wiadomość. Kliknij, aby wyświetlić wstępnie przetworzoną wiadomość.", + "actions/toggleViewingProcessed/currentlyTrue": "Aktualnie wyświetlana jest wstępnie przetworzona wiadomość. Kliknij, aby wyświetlić oryginalną wiadomość.", + "actions/toggleViewingProcessed/hint": "Zanim wiadomość zostanie wysłana do modelu, może zostać wstępnie przetworzona przez preprocesor. Kliknij, aby przełączać się między wyświetlaniem oryginalnej wiadomości a wiadomości wstępnie przetworzonej. Do modelu trafia tylko wiadomość wstępnie przetworzona..", "editMessageConfirm/title": "Zachować zmiany?", - "editMessageConfirm/message": "Dokonałeś zmian w wiadomości. Czy chcesz je zachować?", - "editMessageConfirm/keepEditing": "Kontynuuj edycję", + "editMessageConfirm/message": "Wprowadziłeś zmiany w wiadomości. Czy chcesz je zachować?", + "editMessageConfirm/keepEditing": "Kontynuuj edytowanie", "editMessageConfirm/save": "Zapisz", "editMessageConfirm/discard": "Odrzuć zmiany", - "tokenCount/totalNotAvailable": "Tokeny: {{current}}", - "tokenCount/totalAvailable": "Tokeny: {{current}}/{{total}}", - "modelLoader/manualLoadParams/label": "Ręcznie wybierz parametry ładowania modelu", + "tokenCount/totalNotAvailable": "Tokenów: {{current}}", + "tokenCount/totalAvailable": "Tokenów: {{current}}/{{total}}", + "tokenCount/totalAvailablePercentage": "Kontekst jest w {{percentage}}% pełny", + "tokenCount/contextOverflow": "Nieprzetworzony kontekst przekracza maksymalny limit tokenów w modelu. W zależności od polityki przepełnienia kontekstu, kontekst może zostać obcięty lub wiadomość może nie zostać wysłana.", + "modelLoader/manualLoadParams/label": "Ręczny wybór parametrów obciążenia modelu", "modelLoader/manualLoadParams/hint/before": "(lub przytrzymaj ", "modelLoader/manualLoadParams/hint/after": ")", "actions/move/error": "Nie udało się przenieść", "actions/rename/error": "Nie udało się zmienić nazwy", - "actions/createChatAtRoot": "Utwórz nowy czat", - "actions/createChatAtRoot/error": "Nie udało się utworzyć czatu na głównym poziomie", - "actions/createFolderAtRoot": "Utwórz nowy folder", - "actions/createFolderAtRoot/error": "Nie udało się utworzyć folderu na głównym poziomie", + "actions/createChatAtRoot": "Nowy czat...", + "actions/createChatAtRoot/error": "Nie udało się utworzyć czatu w katalogu głównym", + "actions/createFolderAtRoot": "Nowy folder...", + "actions/createFolderAtRoot/error": "Nie udało się utworzyć folderu w katalogu głównym", + "actions/openInFolder/mac": "Pokaż w Finderze", + "actions/openInFolder/pc": "Pokaż w Eksploratorze plików", + "actions/createChat/error": "Nie udało się utworzyć czatu", + "actions/deleteChat/errorTitle": "Nie udało się usunąć czatu", - "userFile/fileSizeLimit": "Limit rozmiaru pliku to ", - "userFile/noImageSupport": "Model nie obsługuje wejścia obrazów", + "userFile/fileSizeLimit": "Limit pliku wynosi", + "userFile/noImageSupport": "Model nie wspiera wprowadzania obrazu", "userFile/errorPrefix": "Błąd - ", - "userFile/supportedImagePrefix": "Nieobsługiwany typ obrazu - tylko ", - "userFile/supportedImageSuffix": " są obsługiwane", - "userFile/unsupportedFileType": "Nieobsługiwany typ pliku - obsługiwane są tylko obrazy, pliki PDF i .txt.", - "userFile/maxFilesPerMessage": "Osiągnięto maksymalną liczbę plików na wiadomość. Nie można dodać więcej niż {{files}} plików. ", - "userFile/maxFileSizePerMessage": "Osiągnięto maksymalny rozmiar pliku na wiadomość. Nie można dodać plików większych niż {{size}}. ", + "userFile/supportedImagePrefix": "Niewspierany typ obrazu - tylko ", + "userFile/supportedImageSuffix": " jest wspierany", + "userFile/unsupportedFileType": "Nieobsługiwany typ pliku — obsługiwane są tylko obrazy, pliki PDF i pliki .txt.", + "userFile/maxFilesPerMessage": "Osiągnięto maksymalną liczbę plików na wiadomość. Nie można dodać więcej niż {{files}} plików.. ", + "userFile/maxFileSizePerMessage": "Osiągnięto maksymalny rozmiar pliku na wiadomość. Nie można dodawać plików większych niż {{size}}. ", + "userFile/maxFileSizePerConversation": "Osiągnięto maksymalny rozmiar pliku na konwersację. Nie można dodawać plików większych niż {{size}}. ", + "userFile/failedToUploadError/title": "Nie udało się przesłać pliku", + "userFile/failedToAddFile/title": "Nie udało się dodać pliku do czatu", "errorTitle": "Błąd", + "userFile/chatTerminalDocumentsCount_one": "{{count}} dokument w czacie", + "userFile/chatTerminalDocumentsCount_other": "{{count}} dokumentów w czacie", "prediction/busyModel/title": "Model jest zajęty", - "prediction/busyModel/message": "Proszę czekać, aż model zakończy i spróbuj ponownie", + "prediction/busyModel/message": "Poczekaj, aż model zakończy działanie i spróbuj ponownie", "prediction/noModel/title": "Nie wybrano modelu", - "prediction/noModel/message": "Proszę wybrać model, aby wysłać wiadomość", - "prediction/unloadModel/error": "Nie udało się usunąć modelu", + "prediction/modelLoading": "Wiadomość w kolejce, zostanie wysłana po zakończeniu montowania modelu", + "prediction/noModel/message": "Wybierz model, aby wysłać wiadomość", + "prediction/unloadModel/error": "Nie udało się odmontować modelu", - "retrieval/user/processingLabel": "AI myśli...", - "retrieval/powerUser/intermediateStepsHidden": "Ukryte kroki pośrednie. Kliknij, aby rozwinąć.", + "retrieval/user/processingLabel": "AI analizuje...", + "retrieval/powerUser/intermediateStepsHidden": "Ukryto kroki pośrednie. Kliknij, aby rozwinąć.", "retrieval/actions/clickToExpand": "Kliknij, aby rozwinąć kroki pośrednie", "retrieval/actions/clickToCollapse": "Kliknij, aby zwinąć kroki pośrednie", - "style": "Wygląd czatu", + "style": "Wygląd", "style/viewMode/markdown": "Markdown", "style/viewMode/plaintext": "Zwykły tekst", "style/viewMode/monospace": "Monospace", + "speculativeDecodingVisualization/toggle": "Wizualizacja zaakceptowanych tokenów roboczych", + "speculativeDecodingVisualization/fromDraftModel_one": "Zaakceptowany token roboczy", + "speculativeDecodingVisualization/fromDraftModel_other": "Zaakceptowane tokeny robocze", + + "speculativeDecodingVisualization/cannotChangeViewMode": "Wybór trybu widoku jest wyłączony podczas wizualizacji tokenów roboczych.", + "style/fontSize/label": "Rozmiar czcionki", "style/fontSize/medium": "Domyślny", "style/fontSize/large": "Duży", - "style/fontSize/small": "Mały" -} \ No newline at end of file + "style/fontSize/small": "Mały", + + "style/debugBlocks/label": "Pokaż bloki informacji debugowania", + + "style/thinkingUI/label": "Domyślnie rozszerz bloki wnioskowania", + + "style/chatFullWidth/label": "Rozszerz kontener czatu do szerokości okna", + + "style/chatUtilityMenusShowLabel/label": "Pokaż etykiety menu narzędzi czatu", + "messageBlocks": { + "expandBlockTooltip": "Rozwiń zawartość", + "collapseBlockTooltip": "Zwiń zawartość", + "debug": { + "label": "DEBUG INFO", + "collapseTooltip": "Zwiń blok informacji debugowania", + "expandTooltip": "Rowiń blok informacji debugowania" + } + }, + + "chatTabOptions/clearAllMessages": "Wyczyść wszystkie wiadomości...", + "chatTabOptions/duplicateChat": "Duplikuj czat", + + "topBarActions/duplicateChat": "Duplikuj", + "topBarActions/clearChat": "Wyczyść wszystko", + "topBarActions/clearChatConfirmation": "Czy na pewno chcesz wyczyścić wszystkie wiadomości w tym czacie?", + + "topBarActions/clearChatCancel": "Anuluj", + "topBarActions/clearChatDelete": "Wyczyść wszystko", + + "noModels.indexing": "Indeksowanie plików modeli... (może to chwilę potrwać)", + "noModels.downloading": "Pobieranie pierwszego LLM...", + "noModels": "Nie ma jeszcze LLM! Pobierz jeden, aby rozpocząć!", + + "plugins": { + "pluginTrigger": { + "noPlugins": "Wtyczka", + "multiplePlugins": "{{dynamicValue}} wtyczki" + }, + "pluginSelect": { + "title": "Wtyczki", + "dropdown": { + "configure": "Konfiguruj", + "disable": "Wyłącz", + "fork": "Fork", + "uninstall": "Odinstaluj" + }, + "actionButtons": { + "create": "Utwórz", + "import": "Importuj", + "discover": "Odkryj" + }, + "recentlyCreated": { + "title": "Ostatnio utworzone wtyczki", + "placeholder": "Wtyczki, które utworzysz, pojawią się tutaj" + }, + "startRunningDevelopmentPlugin/error": "Nie udało się uruchomić wtyczki w trybie programistycznym", + "stopRunningDevelopmentPlugin/error": "Nie udało się zatrzymać działania wtyczki w trybie programistycznym", + "forceReInitPlugin/error": "Nie udało się ponownie uruchomić wtyczki" + }, + "pluginConfiguration": { + "title": "Konfiguracja wtyczki", + "selectAPlugin": "Wybierz wtyczkę, aby edytować jej konfiguracje", + "preprocessorAndGenerator": "Ta wtyczka zawiera niestandardowy preprocesor i generator", + "generatorOnly": "Ta wtyczka zawiera niestandardowy generator", + "preprocessorOnly": "Ta wtyczka zawiera niestandardowy preprocesor" + }, + "instructions": { + "runTheFollowing": "Aby uruchomić wtyczkę, otwórz terminal i wpisz", + "pushTo": "Udostępnij swoją wtyczkę innym, przesyłając ją do Hubu (opcjonalnie)", + "createdSuccessfully": "Wtyczka utworzona pomyślnie", + "creatingPlugin": "Tworzenie wtyczki...", + "projectFilesTitle": "Pliki projektu", + "buttons": { + "documentation": "Dokumentacja", + "dismiss": "Odruzć", + "publish": "Opublikuj", + "openInZed": "Otwórz w Zed", + "openInVscode": "Otwórz w VS Code", + "revealInFinder": "Pokaż w Finder", + "openInFileExplorer": "Otwórz w File Explorer" + } + }, + "localFork": { + "error": "Nie udało się utworzyć lokalnej kopii rozwojowej wtyczki." + }, + "restartErrorPlugin/error": "Nie udało się ponownie uruchomić wtyczki" + }, + + "genInfo": { + "tokensPerSecond": "{{tokensPerSecond}} tokenów/sekundę", + "predictedTokensCount": "{{predictedTokensCount}} tokenów", + "timeToFirstTokenSec": "{{timeToFirstTokenSec}}s do pierwszego tokenu", + "stopReason": "Zatrzymaj przetwarzanie: {{stopReason}}", + "stopReason.userStopped": "Zatrzymano przez Użytkownika", + "stopReason.modelUnloaded": "Model odmontowany", + "stopReason.failed": "Generowanie nieudane", + "stopReason.eosFound": "EOS Token znaleziony", + "stopReason.stopStringFound": "Znaleziono ciąg znaków stopu", + "stopReason.toolCalls": "Wyłoania narzędzi", + "stopReason.maxPredictedTokensReached": "Osiągnięto maksymalną liczbę przewidywanych tokenów", + "stopReason.contextLengthReached": "Osiągnięto limit długości kontekstu", + "speculativeDecodedBy": "Projekt modelu: {{decodedBy}}", + "speculativeDecodingStats": "Zaakceptowano {{accepted}}/{{total}} wymienionych tokenów ({{percentage}}%)", + "speculativeDecodingAcceptedPercentage": "{{percentage}}% zaakceptowanych wymienionych tokenów", + "speculativeDecodingTooltip": "Zaakceptowano {{accepted}}/{{total}} wymienionych tokenów" + }, + + "tabs": { + "systemPromptEditorTab.headerLabel": "Edytowanie komunikatu systemowego" + } +} diff --git a/pl/config.json b/pl/config.json index 367e42e4..f5ee1685 100644 --- a/pl/config.json +++ b/pl/config.json @@ -1,153 +1,621 @@ { - "noInstanceSelected": "Nie wybrano instancji modelu", + "noInstanceSelected": "Nie wybrano żadnej instancji modelu", "resetToDefault": "Resetuj", "showAdvancedSettings": "Pokaż ustawienia zaawansowane", "showAll": "Wszystkie", "basicSettings": "Podstawowe", - "configSubtitle": "Wczytaj lub zapisz ustawienia i eksperymentuj z parametrami modelu", + "configSubtitle": "Wczytaj lub zapisz ustawienia wstępne i poeksperymentuj z nadpisywaniem parametrów modelu", "inferenceParameters/title": "Parametry predykcji", - "inferenceParameters/info": "Eksperymentuj z parametrami wpływającymi na predykcję.", + "inferenceParameters/info": "Eksperymentuj z parametrami, które wpływają na predykcję.", "generalParameters/title": "Ogólne", "samplingParameters/title": "Próbkowanie", "basicTab": "Podstawowe", "advancedTab": "Zaawansowane", "advancedTab/title": "🧪 Konfiguracja zaawansowana", - "advancedTab/expandAll": "Rozwiń wszystkie", + "advancedTab/expandAll": "Rozwiń wszystko", "advancedTab/overridesTitle": "Nadpisania konfiguracji", - "advancedTab/noConfigsText": "Nie masz niezapisanych zmian - edytuj wartości powyżej, aby zobaczyć nadpisania tutaj.", - "loadInstanceFirst": "Wczytaj model, aby zobaczyć konfigurowalne parametry", + "advancedTab/noConfigsText": "Nie masz niezapisanych zmian — edytuj powyższe wartości, aby zobaczyć nadpisania tutaj.", + "loadInstanceFirst": "Załaduj model, aby wyświetlić konfigurowalne parametry", "noListedConfigs": "Brak konfigurowalnych parametrów", "generationParameters/info": "Eksperymentuj z podstawowymi parametrami wpływającymi na generowanie tekstu.", - "loadParameters/title": "Parametry wczytywania", - "loadParameters/description": "Ustawienia kontrolujące sposób inicjalizacji i wczytywania modelu do pamięci.", - "loadParameters/reload": "Przeładuj, aby zastosować zmiany", + "loadParameters/title": "Załaduj parametry", + "loadParameters/description": "Ustawienia kontrolujące sposób inicjalizacji i montowania modelu do pamięci.", + "loadParameters/reload": "Załaduj ponownie, aby zastosować zmiany", + "loadParameters/reload/error": "Nie udało się ponownie zamontować modelu", "discardChanges": "Odrzuć zmiany", - "llm.prediction.systemPrompt/title": "Prompt systemowy", - "llm.prediction.systemPrompt/description": "Użyj tego pola, aby dostarczyć modelowi instrukcje tła, takie jak zestaw reguł, ograniczeń lub ogólnych wymagań. To pole jest często określane jako \"prompt systemowy\".", - "llm.prediction.systemPrompt/subTitle": "Wytyczne dla AI", + "loadModelToSeeOptions": "Zamontuj model, aby zobaczyć opcje", +"schematicsError.title": "Schemat konfiguracji zawiera błędy w następujących polach:", + "manifestSections": { + "structuredOutput/title": "Strukturyzowane wyjście", + "speculativeDecoding/title": "Dekodowanie spekulatywne", + "sampling/title": "Próbkowanie", + "settings/title": "Ustawienia", + "toolUse/title": "Użycie narzędzia", + "promptTemplate/title": "Szablon monitu", + "customFields/title": "Pola niestandardowe" + }, + + "llm.prediction.systemPrompt/title": "Monit systemowy", + "llm.prediction.systemPrompt/description": "Użyj tego pola, aby wprowadzić instrukcje dla modelu, takie jak zestaw reguł, ograniczeń lub wymagań ogólnych.", + "llm.prediction.systemPrompt/subTitle": "Wytyczne dla sztucznej inteligencji", + "llm.prediction.systemPrompt/openEditor": "Edytor", + "llm.prediction.systemPrompt/closeEditor": "Zamknij edytor", + "llm.prediction.systemPrompt/openedEditor": "Otwarto w edytorze…", + "llm.prediction.systemPrompt/edit": "Edytuj monit systemowy…", + "llm.prediction.systemPrompt/addInstructionsWithMore": "Dodaj instrukcje…", + "llm.prediction.systemPrompt/addInstructions": "Dodaj instrukcje", "llm.prediction.temperature/title": "Temperatura", - "llm.prediction.temperature/subTitle": "Ile losowości wprowadzić. 0 da ten sam wynik za każdym razem, podczas gdy wyższe wartości zwiększą kreatywność i zmienność", - "llm.prediction.temperature/info": "Z dokumentacji pomocy llama.cpp: \"Domyślna wartość to <{{dynamicValue}}>, co zapewnia równowagę między losowością a determinizmem. W skrajnym przypadku temperatura 0 zawsze wybierze najbardziej prawdopodobny następny token,... prowadząc do identycznych wyników w każdym uruchomieniu\"", + "llm.prediction.temperature/subTitle": "Ile losowości wprowadzić? 0 da ten sam wynik za każdym razem, podczas gdy wyższe wartości zwiększą kreatywność i wariancję", + "llm.prediction.temperature/info": "Z dokumentacji pomocy llama.cpp:\"Wartość domyślna to <{{dynamicValue}}>, która zapewnia równowagę między losowością a determinizmem. W skrajnym przypadku temperatura równa 0 zawsze wybierze najbardziej prawdopodobny kolejny token, co prowadzi do identycznych wyników w każdym przebiegu\"", "llm.prediction.llama.sampling/title": "Próbkowanie", - "llm.prediction.topKSampling/title": "Próbkowanie Top K", - "llm.prediction.topKSampling/subTitle": "Ogranicza następny token do jednego z k najbardziej prawdopodobnych tokenów. Działa podobnie do temperatury", - "llm.prediction.topKSampling/info": "Z dokumentacji pomocy llama.cpp:\n\nPróbkowanie top-k to metoda generowania tekstu, która wybiera następny token tylko spośród k najbardziej prawdopodobnych tokenów przewidzianych przez model.\n\nPomaga to zmniejszyć ryzyko generowania tokenów o niskim prawdopodobieństwie lub bezsensownych, ale może również ograniczyć różnorodność wyjścia.\n\nWyższa wartość dla top-k (np. 100) uwzględni więcej tokenów i doprowadzi do bardziej zróżnicowanego tekstu, podczas gdy niższa wartość (np. 10) skupi się na najbardziej prawdopodobnych tokenach i wygeneruje bardziej konserwatywny tekst.\n\n• Domyślna wartość to <{{dynamicValue}}>", + "llm.prediction.topKSampling/title": "Top K Próbkowanie", + "llm.prediction.topKSampling/subTitle": "Ogranicza kolejny token do jednego z k najbardziej prawdopodobnych tokenów. Działa podobnie do temperatury.", + "llm.prediction.topKSampling/info": "Z dokumentacji pomocy llama.cpp:\n\nPróbkowanie k najlepszych to metoda generowania tekstu, która wybiera kolejny token tylko spośród k najlepszych tokenów najbardziej prawdopodobnych przewidzianych przez model.\n\nPomaga to zmniejszyć ryzyko generowania tokenów o niskim prawdopodobieństwie lub bezsensownych, ale może również ograniczyć różnorodność wyników.\n\nWyższa wartość k najlepszych (np. 100) uwzględni więcej tokenów i doprowadzi do bardziej zróżnicowanego tekstu, podczas gdy niższa wartość (np. 10) skupi się na tokenach najbardziej prawdopodobnych i wygeneruje tekst bardziej konserwatywny.\n\n• Wartość domyślna to <{{dynamicValue}}>", "llm.prediction.llama.cpuThreads/title": "Wątki CPU", - "llm.prediction.llama.cpuThreads/subTitle": "Liczba wątków CPU do użycia podczas wnioskowania", - "llm.prediction.llama.cpuThreads/info": "Liczba wątków do użycia podczas obliczeń. Zwiększenie liczby wątków nie zawsze koreluje z lepszą wydajnością. Domyślnie jest to <{{dynamicValue}}>.", - "llm.prediction.maxPredictedTokens/title": "Ogranicz długość odpowiedzi", + "llm.prediction.llama.cpuThreads/subTitle": "Liczba wątków procesora do wykorzystania podczas wnioskowania", + "llm.prediction.llama.cpuThreads/info": "Liczba wątków używanych podczas obliczeń. Zwiększenie liczby wątków nie zawsze koreluje z lepszą wydajnością. Domyślnie… <{{dynamicValue}}>.", + "llm.prediction.maxPredictedTokens/title": "Limit długości odpowiedzi", "llm.prediction.maxPredictedTokens/subTitle": "Opcjonalnie ogranicz długość odpowiedzi AI", - "llm.prediction.maxPredictedTokens/info": "Kontroluj maksymalną długość odpowiedzi chatbota. Włącz, aby ustawić limit maksymalnej długości odpowiedzi, lub wyłącz, aby pozwolić chatbotowi zdecydować, kiedy zakończyć.", + "llm.prediction.maxPredictedTokens/info": "Kontroluj maksymalną długość odpowiedzi chatbota. Włącz, aby ustawić limit maksymalnej długości odpowiedzi, lub wyłącz, aby pozwolić chatbotowi zdecydować, kiedy ma się zatrzymać.", "llm.prediction.maxPredictedTokens/inputLabel": "Maksymalna długość odpowiedzi (tokeny)", "llm.prediction.maxPredictedTokens/wordEstimate": "Około {{maxWords}} słów", - "llm.prediction.repeatPenalty/title": "Kara za powtórzenia", + "llm.prediction.repeatPenalty/title": "Kara za powtórzenie", "llm.prediction.repeatPenalty/subTitle": "Jak bardzo zniechęcać do powtarzania tego samego tokena", - "llm.prediction.repeatPenalty/info": "Z dokumentacji pomocy llama.cpp:... \"Pomaga zapobiegać generowaniu przez model powtarzalnego lub monotonnego tekstu.\n\nWyższa wartość (np. 1,5) będzie bardziej surowo karać powtórzenia, podczas gdy niższa wartość (np. 0,9) będzie bardziej pobłażliwa.\" • Domyślna wartość to <{{dynamicValue}}>", - "llm.prediction.minPSampling/title": "Próbkowanie Min P", - "llm.prediction.minPSampling/subTitle": "Minimalne prawdopodobieństwo bazowe dla tokena, aby został wybrany do wyjścia", - "llm.prediction.minPSampling/info": "Z dokumentacji pomocy llama.cpp:\n\nMinimalne prawdopodobieństwo dla tokena do rozważenia, w stosunku do prawdopodobieństwa najbardziej prawdopodobnego tokena. Musi być w [0, 1].\n\n• Domyślna wartość to <{{dynamicValue}}>", - "llm.prediction.topPSampling/title": "Próbkowanie Top P", - "llm.prediction.topPSampling/subTitle": "Minimalne skumulowane prawdopodobieństwo dla możliwych następnych tokenów. Działa podobnie do temperatury", - "llm.prediction.topPSampling/info": "Z dokumentacji pomocy llama.cpp:\n\nPróbkowanie top-p, znane również jako próbkowanie jądrowe, to inna metoda generowania tekstu, która wybiera następny token z podzbioru tokenów, które razem mają skumulowane prawdopodobieństwo co najmniej p.\n\nTa metoda zapewnia równowagę między różnorodnością a jakością, biorąc pod uwagę zarówno prawdopodobieństwa tokenów, jak i liczbę tokenów do próbkowania.\n\nWyższa wartość dla top-p (np. 0,95) doprowadzi do bardziej zróżnicowanego tekstu, podczas gdy niższa wartość (np. 0,5) wygeneruje bardziej skoncentrowany i konserwatywny tekst. Musi być w (0, 1].\n\n• Domyślna wartość to <{{dynamicValue}}>", - "llm.prediction.stopStrings/title": "Ciągi zatrzymujące", - "llm.prediction.stopStrings/subTitle": "Ciągi, które powinny zatrzymać model przed generowaniem kolejnych tokenów", - "llm.prediction.stopStrings/info": "Konkretne ciągi, które po napotkaniu zatrzymają model przed generowaniem kolejnych tokenów", + "llm.prediction.repeatPenalty/info": "Z dokumentacji pomocy llama.cpp:\"Pomaga zapobiegać generowaniu przez model tekstu powtarzalnego lub monotonnego.\n\nWyższa wartość (np. 1,5) będzie surowiej karać za powtórzenia, podczas gdy niższa wartość (np. 0,9) będzie łagodniejsza.\" • Wartość domyślna to <{{dynamicValue}}>", + "llm.prediction.minPSampling/title": "Min P Próbkowanie", + "llm.prediction.minPSampling/subTitle": "Minimalne prawdopodobieństwo bazowe dla wyboru tokena do wyjścia", + "llm.prediction.minPSampling/info": "Z dokumentacji pomocy llama.cpp:\n\nMinimalne prawdopodobieństwo, że token zostanie wzięty pod uwagę, w stosunku do prawdopodobieństwa najbardziej prawdopodobnego tokena. Musi mieścić się w przedziale [0, 1].\n\n• Wartość domyślna to <{{dynamicValue}}>", + "llm.prediction.topPSampling/title": "Top P Próbkowanie", + "llm.prediction.topPSampling/subTitle": "Minimum cumulative probability for the possible next tokens. Acts similarly to temperature", + "llm.prediction.topPSampling/info": "Z dokumentacji pomocy llama.cpp:\n\nPróbkowanie top-p, znane również jako próbkowanie jądra, to kolejna metoda generowania tekstu, która wybiera kolejny token z podzbioru tokenów, których łączne prawdopodobieństwo kumulacji wynosi co najmniej p.\n\nTa metoda zapewnia równowagę między różnorodnością a jakością, uwzględniając zarówno prawdopodobieństwo tokenów, jak i liczbę tokenów do pobrania.\n\nWyższa wartość top-p (np. 0,95) prowadzi do bardziej zróżnicowanego tekstu, podczas gdy niższa wartość (np. 0,5) generuje tekst bardziej skupiony i konserwatywny. Musi być w (0, 1).\n\n• Wartość domyślna to <{{dynamicValue}}>", + "llm.prediction.stopStrings/title": "Zatrzymaj ciągi", + "llm.prediction.stopStrings/subTitle": "Ciągi znaków, które powinny powstrzymać model przed generowaniem większej liczby tokenów", + "llm.prediction.stopStrings/info": "Konkretne ciągi znaków, których napotkanie spowoduje zatrzymanie generowania przez model większej liczby tokenów", "llm.prediction.stopStrings/placeholder": "Wprowadź ciąg i naciśnij ⏎", - "llm.prediction.contextOverflowPolicy/title": "Przepełnienie konwersacji", - "llm.prediction.contextOverflowPolicy/subTitle": "Jak model powinien zachować się, gdy konwersacja staje się zbyt duża do obsłużenia", - "llm.prediction.contextOverflowPolicy/info": "Zdecyduj, co zrobić, gdy konwersacja przekroczy rozmiar pamięci roboczej modelu ('kontekst')", - "customInputs.contextOverflowPolicy.stopAtLimit": "Zatrzymaj na limicie", - "customInputs.contextOverflowPolicy.stopAtLimitSub": "Zatrzymaj generowanie, gdy pamięć modelu się zapełni", - "customInputs.contextOverflowPolicy.truncateMiddle": "Przytnij środek", - "customInputs.contextOverflowPolicy.truncateMiddleSub": "Usuwa wiadomości ze środka konwersacji, aby zrobić miejsce na nowsze. Model nadal będzie pamiętał początek konwersacji", - "customInputs.contextOverflowPolicy.rollingWindow": "Okno przesuwne", - "customInputs.contextOverflowPolicy.rollingWindowSub": "Model zawsze otrzyma kilka najnowszych wiadomości, ale może zapomnieć początek konwersacji", + "llm.prediction.contextOverflowPolicy/title": "CPrzepełnienie kontekstu", + "llm.prediction.contextOverflowPolicy/subTitle": "Jak model powinien się zachowywać, gdy rozmowa staje się zbyt duża, aby mógł ją obsłużyć", + "llm.prediction.contextOverflowPolicy/info": "Zdecyduj, co zrobić, gdy konwersacja przekroczy rozmiar pamięci roboczej modelu ('context')", "llm.prediction.llama.frequencyPenalty/title": "Kara za częstotliwość", "llm.prediction.llama.presencePenalty/title": "Kara za obecność", - "llm.prediction.llama.tailFreeSampling/title": "Próbkowanie bez ogona", - "llm.prediction.llama.locallyTypicalSampling/title": "Próbkowanie lokalnie typowe", - "llm.prediction.onnx.topKSampling/title": "Próbkowanie Top K", - "llm.prediction.onnx.topKSampling/subTitle": "Ogranicza następny token do jednego z k najbardziej prawdopodobnych tokenów. Działa podobnie do temperatury", - "llm.prediction.onnx.topKSampling/info": "Z dokumentacji ONNX:\n\nLiczba tokenów słownikowych o najwyższym prawdopodobieństwie do zachowania dla filtrowania top-k\n\n• Ten filtr jest domyślnie wyłączony", - "llm.prediction.onnx.repeatPenalty/title": "Kara za powtórzenia", + "llm.prediction.llama.tailFreeSampling/title": "Pobieranie próbek bez ogona", + "llm.prediction.llama.locallyTypicalSampling/title": "Lokalne typowe próbkowanie", + "llm.prediction.llama.xtcProbability/title": "Prawdopodobieństwo próbkowania XTCy", + "llm.prediction.llama.xtcProbability/subTitle": "Próbkowanie XTC (Exclude Top Choices) będzie aktywowane tylko z tym prawdopodobieństwem dla każdego wygenerowanego tokena. Próbkowanie XTC może pobudzić kreatywność i ograniczyć stereotypy.", + "llm.prediction.llama.xtcProbability/info": "Próbkowanie XTC (Exclude Top Choices) będzie aktywowane tylko z tym prawdopodobieństwem, na każdy wygenerowany token. Próbkowanie XTC zazwyczaj pobudza kreatywność i redukuje stereotypy.", + "llm.prediction.llama.xtcThreshold/title": "XTC Próg próbkowania", + "llm.prediction.llama.xtcThreshold/subTitle": "XTC (Exclude Top Choices) próg. Przy szansie `xtc-probability`, wyszukaj tokeny z prawdopodobieństwami pomiędzy `xtc-threshold` a 0,5 i usuń wszystkie takie tokeny z wyjątkiem najmniej prawdopodobnego.", + "llm.prediction.llama.xtcThreshold/info": "XTC (Exclude Top Choices) próg. Przy szansie `xtc-probability`, wyszukaj tokeny z prawdopodobieństwami pomiędzy `xtc-threshold` a 0,5 i usuń wszystkie takie tokeny z wyjątkiem najmniej prawdopodobnego.", + "llm.prediction.mlx.topKSampling/title": "Top K Próbkowanie", + "llm.prediction.mlx.topKSampling/subTitle": "Ogranicza kolejny token do jednego z k najbardziej prawdopodobnych tokenów. Działa podobnie do temperatury.", + "llm.prediction.mlx.topKSampling/info": "Ogranicza kolejny token do jednego z k najbardziej prawdopodobnych tokenów. Działa podobnie do temperatury.", + "llm.prediction.onnx.topKSampling/title": "Top K Próbkowanie", + "llm.prediction.onnx.topKSampling/subTitle": "Ogranicza kolejny token do jednego z k najbardziej prawdopodobnych tokenów. Działa podobnie do temperatury.", + "llm.prediction.onnx.topKSampling/info": "Z dokumentacji ONNX:\n\nLiczba tokenów słownika o najwyższym prawdopodobieństwie do zachowania w celu filtrowania typu k\n\n• Ten filtr jest domyślnie wyłączony", + "llm.prediction.onnx.repeatPenalty/title": "Kara za powtórzenie", "llm.prediction.onnx.repeatPenalty/subTitle": "Jak bardzo zniechęcać do powtarzania tego samego tokena", "llm.prediction.onnx.repeatPenalty/info": "Wyższa wartość zniechęca model do powtarzania się", - "llm.prediction.onnx.topPSampling/title": "Próbkowanie Top P", - "llm.prediction.onnx.topPSampling/subTitle": "Minimalne skumulowane prawdopodobieństwo dla możliwych następnych tokenów. Działa podobnie do temperatury", - "llm.prediction.onnx.topPSampling/info": "Z dokumentacji ONNX:\n\nTylko najbardziej prawdopodobne tokeny z prawdopodobieństwami, które sumują się do TopP lub wyższych, są zachowywane do generowania\n\n• Ten filtr jest domyślnie wyłączony", + "llm.prediction.onnx.topPSampling/title": "Top P Próbkowanie", + "llm.prediction.onnx.topPSampling/subTitle": "Minimalne skumulowane prawdopodobieństwo dla kolejnych możliwych tokenów. Działa podobnie do temperatury.", + "llm.prediction.onnx.topPSampling/info": "Z dokumentacji ONNX:\n\nDo generacji zachowywane są tylko najbardziej prawdopodobne tokeny, których prawdopodobieństwo sumuje się do TopP lub jest wyższe.\n\n• Ten filtr jest domyślnie wyłączony.", "llm.prediction.seed/title": "Ziarno", - "llm.prediction.structured/title": "Wyjście strukturalne", - "llm.prediction.structured/info": "Wyjście strukturalne", - "llm.prediction.promptTemplate/title": "Szablon promptu", - "llm.prediction.promptTemplate/subTitle": "Format, w jakim wiadomości w czacie są wysyłane do modelu. Zmiana tego może wprowadzić nieoczekiwane zachowanie - upewnij się, że wiesz, co robisz!", - "customInputs.llmPromptTemplate.types.jinja/label": "Jinja", - "customInputs.llmPromptTemplate.jinja/error": "Nie udało się przetworzyć szablonu Jinja: {{error}}", - "customInputs.llmPromptTemplate.types.manual/label": "Ręczny", - "customInputs.llmPromptTemplate.manual.subfield.beforeSystem/label": "Przed systemem", - "customInputs.llmPromptTemplate.manual.subfield.beforeSystem/placeholder": "Wprowadź prefiks systemu...", - "customInputs.llmPromptTemplate.manual.subfield.afterSystem/label": "Po systemie", - "customInputs.llmPromptTemplate.manual.subfield.afterSystem/placeholder": "Wprowadź sufiks systemu...", - "customInputs.llmPromptTemplate.manual.subfield.beforeUser/label": "Przed użytkownikiem", - "customInputs.llmPromptTemplate.manual.subfield.beforeUser/placeholder": "Wprowadź prefiks użytkownika...", - "customInputs.llmPromptTemplate.manual.subfield.afterUser/label": "Po użytkowniku", - "customInputs.llmPromptTemplate.manual.subfield.afterUser/placeholder": "Wprowadź sufiks użytkownika...", - "customInputs.llmPromptTemplate.manual.subfield.beforeAssistant/label": "Przed asystentem", - "customInputs.llmPromptTemplate.manual.subfield.beforeAssistant/placeholder": "Wprowadź prefiks asystenta...", - "customInputs.llmPromptTemplate.manual.subfield.afterAssistant/label": "Po asystencie", - "customInputs.llmPromptTemplate.manual.subfield.afterAssistant/placeholder": "Wprowadź suffix asystenta...", - "customInputs.llmPromptTemplate.stopStrings/label": "Dodatkowe ciągi zatrzymujące", - "customInputs.llmPromptTemplate.stopStrings/subTitle": "Specyficzne dla szablonu ciągi zatrzymujące, które będą używane oprócz ciągów zatrzymujących określonych przez użytkownika.", + "llm.prediction.structured/title": "Ustrukturyzowane wyjście", + "llm.prediction.structured/info": "Ustrukturyzowane wyjście", + "llm.prediction.structured/description": "Zaawansowane: możesz podać [JSON Schema](https://json-schema.org/learn/miscellaneous-examples) aby wymusić określony format wyjściowy z modelu. Przeczytaj [documentation](https://lmstudio.ai/docs/advanced/structured-output) aby dowiedzieć się więcej", + "llm.prediction.tools/title": "Użycie narzędzi", + "llm.prediction.tools/description": "Zaawansowane: możesz dostarczyć zgodną z JSON listę narzędzi, do których model będzie mógł żądać wywołań. Przeczytaj [documentation](https://lmstudio.ai/docs/advanced/tool-use) aby dowiedzieć się więcej", + "llm.prediction.tools/serverPageDescriptionAddon": "Przekaż to przez treść żądania jako „narzędzia” podczas korzystania z interfejsu API serwera", + "llm.prediction.promptTemplate/title": "Szablon monitu", + "llm.prediction.promptTemplate/subTitle": "Format, w jakim wiadomości na czacie są wysyłane do modelu. Zmiana tego może spowodować nieoczekiwane zachowanie – upewnij się, że wiesz, co robisz!", + "llm.prediction.speculativeDecoding.numDraftTokensExact/title": "Projekt tokenów do wygenerowania", + "llm.prediction.speculativeDecoding.numDraftTokensExact/subTitle": "Liczba tokenów do wygenerowania z modelem roboczym na jeden token modelu głównego. Znajdź złoty środek między obliczeniami a nagrodami.", + "llm.prediction.speculativeDecoding.minContinueDraftingProbability/title": "Odcięcie prawdopodobieństwa projektu", + "llm.prediction.speculativeDecoding.minContinueDraftingProbability/subTitle": "Kontynuuj draftowanie, aż prawdopodobieństwo tokena spadnie poniżej tego progu. Wyższe wartości zazwyczaj oznaczają niższe ryzyko i niższą nagrodę.", + "llm.prediction.speculativeDecoding.minDraftLengthToConsider/title": "Minimalna wielkość projektu", + "llm.prediction.speculativeDecoding.minDraftLengthToConsider/subTitle": "Projekty mniejsze niż ta będą ignorowane przez model główny. Wyższe wartości zazwyczaj oznaczają niższe ryzyko i niższą nagrodę.", + "llm.prediction.speculativeDecoding.maxTokensToDraft/title": "Maksymalny rozmiar projektu", + "llm.prediction.speculativeDecoding.maxTokensToDraft/subTitle": "Maksymalna liczba tokenów dozwolona w drafcie. Pułap, jeśli wszystkie potencjalne tokeny są > odcięcia. Niższe wartości zazwyczaj oznaczają niższe ryzyko i niższą nagrodę.", + "llm.prediction.speculativeDecoding.draftModel/title": "Projekt modelu", + "llm.prediction.reasoning.parsing/title": "Analiza sekcji rozumowania", + "llm.prediction.reasoning.parsing/subTitle": "Jak analizować sekcje rozumowania w wynikach modelu", + + "llm.load.mainGpu/title": "Główne GPU", + "llm.load.mainGpu/subTitle": "Procesor graficzny, który ma pierwszeństwo w obliczeniach modelu", + "llm.load.mainGpu/placeholder": "Wybierz główny GPU...", + "llm.load.splitStrategy/title": "Strategia podziału", + "llm.load.splitStrategy/subTitle": "Jak rozdzielić obliczenia modelu między procesory graficzne", + "llm.load.splitStrategy/placeholder": "Wybierz strategię podziału...", + "llm.load.offloadKVCacheToGpu/title": "Przenieś pamięć podręczną KV do pamięci GPU", + "llm.load.offloadKVCacheToGpu/subTitle": "Przenieś pamięć podręczną KV do pamięci GPU. Poprawia wydajność, ale wymaga więcej pamięci GPU.", + "llm.load.numParallelSessions/title": "Maksymalna liczba jednoczesnych prognoz", + "llm.load.numParallelSessions/subTitle": "Maksymalna liczba prognoz, które model może wykonać w danym czasie. Szybkość poszczególnych prognoz może się zmniejszyć wraz ze wzrostem współbieżności, ale każda prognoza rozpocznie się szybciej i można osiągnąć wyższą całkowitą przepustowość.", + "llm.load.useUnifiedKvCache/title": "Unifikowana pamięć podręczna KV", + "llm.load.useUnifiedKvCache/subTitle": "Kontroluje, czy równoczesne prognozy współdzielą jedną pamięć podręczną KV, oszczędzając pamięć. Wyłączenie tej opcji gwarantuje, że każda prognoza może wykorzystać pełną długość kontekstu, kosztem większego zużycia pamięci.", + "load.gpuStrictVramCap/title": "Ogranicz odciążanie modelu do dedykowanej pamięci GPU", + "load.gpuStrictVramCap.customSubTitleOff": "WYŁĄCZONE: Zezwalaj na przenoszenie wag modelu do pamięci współdzielonej, jeśli dedykowana pamięć GPU jest pełna.", + "load.gpuStrictVramCap.customSubTitleOn": "WŁĄCZONE: System ograniczy przenoszenie wag modeli wyłącznie do dedykowanej pamięci GPU i pamięci RAM. Kontekst może nadal korzystać z pamięci współdzielonej.", + "load.gpuStrictVramCap.customGpuOffloadWarning": "Odciążanie modelu ograniczone do dedykowanej pamięci GPU. Rzeczywista liczba odciążonych warstw może się różnić.", + "load.allGpusDisabledWarning": "Wszystkie procesory graficzne są obecnie wyłączone. Włącz co najmniej jeden, aby odciążyć system.", + "llm.load.contextLength/title": "Długość kontekstu", - "llm.load.contextLength/subTitle": "Maksymalna liczba tokenów, którą model może uwzględnić w jednym prompcie. Zobacz opcje Przepełnienia konwersacji w sekcji \"Parametry wnioskowania\", aby uzyskać więcej sposobów zarządzania tym", - "llm.load.contextLength/info": "Określa maksymalną liczbę tokenów, które model może rozważyć jednocześnie, wpływając na to, ile kontekstu zachowuje podczas przetwarzania", + "llm.load.contextLength/subTitle": "Maksymalna liczba tokenów, które model może obsłużyć w jednym poleceniu. Zobacz opcje przepełnienia konwersacji w sekcji \"Parametry wnioskowania\" aby poznać więcej sposobów do zarządzania tym", + "llm.load.contextLength/info": "Określa maksymalną liczbę tokenów, które model może uwzględnić jednocześnie, co ma wpływ na ilość kontekstu zachowanego podczas przetwarzania.", + "llm.load.contextLength/warning": "Ustawienie wysokiej wartości długości kontekstu może znacząco wpłynąć na zużycie pamięci.", "llm.load.seed/title": "Ziarno", - "llm.load.seed/subTitle": "Ziarno dla generatora liczb losowych używanego w generowaniu tekstu. -1 oznacza losowe ziarno", - "llm.load.seed/info": "Ziarno losowe: Ustawia ziarno dla generowania liczb losowych, aby zapewnić powtarzalne wyniki", - "llm.load.llama.evalBatchSize/title": "Rozmiar partii ewaluacji", - "llm.load.llama.evalBatchSize/subTitle": "Liczba tokenów wejściowych do przetworzenia jednocześnie. Zwiększenie tego zwiększa wydajność kosztem zużycia pamięci", - "llm.load.llama.evalBatchSize/info": "Ustawia liczbę przykładów przetwarzanych razem w jednej partii podczas ewaluacji, wpływając na szybkość i zużycie pamięci", + "llm.load.seed/subTitle": "Ziarno generatora liczb losowych używanego do generowania tekstu. -1 oznacza liczbę losową", + "llm.load.seed/info": "Losowe ziarno: Ustawia ziarno do generowania liczb losowych, aby zapewnić powtarzalne wyniki", + "llm.load.numCpuExpertLayersRatio/title": "Liczba warstw, dla których należy wymusić wagi MoE na procesorze", + "llm.load.numCpuExpertLayersRatio/subTitle": "Liczba warstw wymuszająca na ekspertach korzystanie z procesora. Oszczędza pamięć VRAM i może być szybsza niż częściowe odciążenie GPU. Niezalecane, jeśli model mieści się w całości w pamięci VRAM..", + "llm.load.numCpuExpertLayersRatio/info": "Określa liczbę warstw, które mają zmusić eksperta do użycia procesora. Warstwy uwagi pozostają na GPU, oszczędzając pamięć VRAM i utrzymując wnioskowanie na dość szybkim poziomie..", + + "llm.load.llama.evalBatchSize/title": "Wielkość partii do oceny", + "llm.load.llama.evalBatchSize/subTitle": "Liczba tokenów wejściowych do przetworzenia w danym momencie. Zwiększenie tej liczby zwiększa wydajność kosztem zużycia pamięci.", + "llm.load.llama.evalBatchSize/info": "Ustawia liczbę przykładów przetwarzanych razem w jednej partii podczas oceny, co wpływa na szybkość i wykorzystanie pamięci", "llm.load.llama.ropeFrequencyBase/title": "Baza częstotliwości RoPE", - "llm.load.llama.ropeFrequencyBase/subTitle": "Niestandardowa częstotliwość bazowa dla obrotowych osadzań pozycyjnych (RoPE). Zwiększenie tego może umożliwić lepszą wydajność przy długich kontekstach", - "llm.load.llama.ropeFrequencyBase/info": "[Zaawansowane] Dostosowuje częstotliwość bazową dla Rotacyjnego Kodowania Pozycyjnego, wpływając na sposób osadzania informacji pozycyjnych", + "llm.load.llama.ropeFrequencyBase/subTitle": "Niestandardowa częstotliwość bazowa dla osadzeń pozycyjno-obrotowych (RoPE). Zwiększenie jej może zapewnić lepszą wydajność przy dużych długościach kontekstu.", + "llm.load.llama.ropeFrequencyBase/info": "[Zaawansowane] dostosowuje częstotliwość bazową dla obrotowego kodowania pozycyjnego, wpływając na sposób osadzania informacji pozycyjnych", "llm.load.llama.ropeFrequencyScale/title": "Skala częstotliwości RoPE", - "llm.load.llama.ropeFrequencyScale/subTitle": "Długość kontekstu jest skalowana przez ten czynnik, aby rozszerzyć efektywny kontekst przy użyciu RoPE", - "llm.load.llama.ropeFrequencyScale/info": "[Zaawansowane] Modyfikuje skalowanie częstotliwości dla Rotacyjnego Kodowania Pozycyjnego, aby kontrolować ziarnistość kodowania pozycyjnego", - "llm.load.llama.acceleration.offloadRatio/title": "Offload GPU", - "llm.load.llama.acceleration.offloadRatio/subTitle": "Liczba dyskretnych warstw modelu do obliczenia na GPU dla akceleracji GPU", - "llm.load.llama.acceleration.offloadRatio/info": "Ustaw liczbę warstw do przeniesienia na GPU.", + "llm.load.llama.ropeFrequencyScale/subTitle": "Długość kontekstu jest skalowana według tego współczynnika, aby wydłużyć efektywny kontekst przy użyciu RoPE", + "llm.load.llama.ropeFrequencyScale/info": "[Zaawansowane] modyfikuje skalowanie częstotliwości dla obrotowego kodowania pozycyjnego w celu kontrolowania szczegółowości kodowania pozycyjnego", + "llm.load.llama.acceleration.offloadRatio/title": "Odciążenie GPU", + "llm.load.llama.acceleration.offloadRatio/subTitle": "Liczba oddzielnych warstw modelu do obliczenia na GPU w celu przyspieszenia GPU", + "llm.load.llama.acceleration.offloadRatio/info": "Ustaw liczbę warstw, które mają być przeniesione do GPU..", "llm.load.llama.flashAttention/title": "Flash Attention", "llm.load.llama.flashAttention/subTitle": "Zmniejsza zużycie pamięci i czas generowania w niektórych modelach", - "llm.load.llama.flashAttention/info": "Przyspiesza mechanizmy uwagi dla szybszego i bardziej efektywnego przetwarzania", - "llm.load.llama.keepModelInMemory/title": "Utrzymuj model w pamięci", - "llm.load.llama.keepModelInMemory/subTitle": "Rezerwuj pamięć systemową dla modelu, nawet gdy jest przeniesiony na GPU. Poprawia wydajność, ale wymaga więcej pamięci RAM systemu", - "llm.load.llama.keepModelInMemory/info": "Zapobiega wymianie modelu na dysk, zapewniając szybszy dostęp kosztem większego zużycia pamięci RAM", - "llm.load.llama.useFp16ForKVCache/title": "Użyj FP16 dla pamięci podręcznej KV", - "llm.load.llama.useFp16ForKVCache/info": "Zmniejsza zużycie pamięci poprzez przechowywanie pamięci podręcznej w połowie precyzji (FP16)", - "llm.load.llama.tryMmap/title": "Spróbuj mmap()", - "llm.load.llama.tryMmap/subTitle": "Poprawia czas ładowania modelu. Wyłączenie tego może poprawić wydajność, gdy model jest większy niż dostępna pamięć RAM systemu", - "llm.load.llama.tryMmap/info": "Ładuj pliki modelu bezpośrednio z dysku do pamięci", + "llm.load.llama.flashAttention/info": "Przyspiesza mechanizmy uwagi, umożliwiając szybsze i wydajniejsze przetwarzanie", + "llm.load.numExperts/title": "Liczba ekspertów", + "llm.load.numExperts/subTitle": "Liczba ekspertów do wykorzystania w modelu", + "llm.load.numExperts/info": "Liczba ekspertów, których należy użyć w modelu", + "llm.load.llama.keepModelInMemory/title": "Zachowaj model w pamięci", + "llm.load.llama.keepModelInMemory/subTitle": "Rezerwuj pamięć systemową dla modelu, nawet po przeniesieniu jej na GPU. Poprawia wydajność, ale wymaga więcej pamięci RAM.", + "llm.load.llama.keepModelInMemory/info": "Zapobiega przenoszeniu modelu na dysk, zapewniając szybszy dostęp kosztem większego zużycia pamięci RAM.", + "llm.load.llama.useFp16ForKVCache/title": "Użyj FP16 dla KV Cache", + "llm.load.llama.useFp16ForKVCache/info": "Zmniejsza zużycie pamięci poprzez przechowywanie pamięci podręcznej w połowie precyzji. (FP16)", + "llm.load.llama.tryMmap/title": "Wypróbuj mmap()", + "llm.load.llama.tryMmap/subTitle": "Skraca czas ładowania modelu. Wyłączenie tej opcji może poprawić wydajność, gdy model jest większy niż dostępna pamięć RAM systemu.", + "llm.load.llama.tryMmap/info": "Ładowanie plików modeli bezpośrednio z dysku do pamięci", + "llm.load.llama.cpuThreadPoolSize/title": "Rozmiar puli wątków procesora", + "llm.load.llama.cpuThreadPoolSize/subTitle": "Liczba wątków procesora, które mają zostać przydzielone do puli wątków używanej do obliczeń modelu.", + "llm.load.llama.cpuThreadPoolSize/info": "Liczba wątków procesora, które mają zostać przydzielone do puli wątków używanej do obliczeń modelu. Zwiększenie liczby wątków nie zawsze przekłada się na lepszą wydajność. Wartością domyślną jest <{{dynamicValue}}>.", + "llm.load.llama.kCacheQuantizationType/title": "Typ kwantyzacji pamięci podręcznej K", + "llm.load.llama.kCacheQuantizationType/subTitle": "Niższe wartości zmniejszają zużycie pamięci, ale mogą obniżyć jakość. Efekt różni się znacznie w zależności od modelu.", + "llm.load.llama.vCacheQuantizationType/title": "Typ kwantyzacji pamięci podręcznej V", + "llm.load.llama.vCacheQuantizationType/subTitle": "Niższe wartości zmniejszają zużycie pamięci, ale mogą obniżyć jakość. Efekt różni się znacznie w zależności od modelu.", + "llm.load.llama.vCacheQuantizationType/turnedOnWarning": "⚠️ Należy wyłączyć tę wartość, jeśli funkcja Flash Attention nie jest włączona.", + "llm.load.llama.vCacheQuantizationType/disabledMessage": "Można włączyć tylko wtedy, gdy włączona jest funkcja Flash Attention.", + "llm.load.llama.vCacheQuantizationType/invalidF32MetalState": "⚠️ Podczas korzystania z F32 należy wyłączyć funkcję flash attention.", + "llm.load.mlx.kvCacheBits/title": "Kwantyzacja pamięci podręcznej KV", + "llm.load.mlx.kvCacheBits/subTitle": "Liczba bitów, do której należy kwantyzować pamięć podręczną KV", + "llm.load.mlx.kvCacheBits/info": "Liczba bitów, do której należy kwantyzować pamięć podręczną KV", + "llm.load.mlx.kvCacheBits/turnedOnWarning": "Ustawienie długości kontekstu jest ignorowane podczas korzystania z kwantyzacji pamięci podręcznej KV.", + "llm.load.mlx.kvCacheGroupSize/title": "Kwantyzacja pamięci podręcznej KV: rozmiar grupy", + "llm.load.mlx.kvCacheGroupSize/subTitle": "Rozmiar grupy podczas operacji kwantyzacji dla pamięci podręcznej KV. Większy rozmiar grupy zmniejsza zużycie pamięci, ale może obniżyć jakość.", + "llm.load.mlx.kvCacheGroupSize/info": "Liczba bitów, do której należy kwantyzować pamięć podręczną KV", + "llm.load.mlx.kvCacheQuantizationStart/title": "Kwantyzacja pamięci podręcznej KV: Rozpocznij kwantyzację, gdy kontekst przekroczy tę długość.", + "llm.load.mlx.kvCacheQuantizationStart/subTitle": "Próg długości kontekstu, po przekroczeniu którego rozpoczyna się kwantyzacja pamięci podręcznej KV", + "llm.load.mlx.kvCacheQuantizationStart/info": "Próg długości kontekstu, po przekroczeniu którego rozpoczyna się kwantyzacja pamięci podręcznej KV", + "llm.load.mlx.kvCacheQuantization/title": "Kwantyzacja pamięci podręcznej KV", + "llm.load.mlx.kvCacheQuantization/subTitle": "Kwantyzuj pamięć podręczną KV modelu. Może to skutkować szybszym generowaniem i mniejszym zużyciem pamięci, kosztem jakości wyników modelu..", + "llm.load.mlx.kvCacheQuantization/bits/title": "Bity kwantyzacji pamięci podręcznej KV", + "llm.load.mlx.kvCacheQuantization/bits/tooltip": "Liczba bitów do kwantyzacji pamięci podręcznej KV", + "llm.load.mlx.kvCacheQuantization/bits/bits": "Bity", + "llm.load.mlx.kvCacheQuantization/groupSize/title": "Strategia dotycząca wielkości grupy", + "llm.load.mlx.kvCacheQuantization/groupSize/accuracy": "Dokładna", + "llm.load.mlx.kvCacheQuantization/groupSize/balanced": "Zbalansowana", + "llm.load.mlx.kvCacheQuantization/groupSize/speedy": "Szybka", + "llm.load.mlx.kvCacheQuantization/groupSize/tooltip": "Zaawansowane: Konfiguracja kwantyzowanej „wielkości grupy matmul”\n\n• Dokładność = wielkość grupy 32\n• Zrównoważona = wielkość grupy 64\n• Szybkość = wielkość grupy 128\n", + "llm.load.mlx.kvCacheQuantization/quantizedStart/title": "Rozpocznij kwantyzację, gdy kontekst osiągnie tę długość.", + "llm.load.mlx.kvCacheQuantization/quantizedStart/tooltip": "Gdy kontekst osiągnie tę liczbę tokenów, rozpocznij kwantyzację pamięci podręcznej KV.", + "embedding.load.contextLength/title": "Długość kontekstu", - "embedding.load.contextLength/subTitle": "Maksymalna liczba tokenów, którą model może uwzględnić w jednym prompcie. Zobacz opcje Przepełnienia konwersacji w sekcji \"Parametry wnioskowania\", aby uzyskać więcej sposobów zarządzania tym", - "embedding.load.contextLength/info": "Określa maksymalną liczbę tokenów, które model może rozważyć jednocześnie, wpływając na to, ile kontekstu zachowuje podczas przetwarzania", - "embedding.load.llama.ropeFrequencyBase/title": "Baza częstotliwości RoPE", - "embedding.load.llama.ropeFrequencyBase/subTitle": "Niestandardowa częstotliwość bazowa dla obrotowych osadzań pozycyjnych (RoPE). Zwiększenie tego może umożliwić lepszą wydajność przy długich kontekstach", - "embedding.load.llama.ropeFrequencyBase/info": "[Zaawansowane] Dostosowuje częstotliwość bazową dla Rotacyjnego Kodowania Pozycyjnego, wpływając na sposób osadzania informacji pozycyjnych", - "embedding.load.llama.evalBatchSize/title": "Rozmiar partii ewaluacji", - "embedding.load.llama.evalBatchSize/subTitle": "Liczba tokenów wejściowych do przetworzenia jednocześnie. Zwiększenie tego zwiększa wydajność kosztem zużycia pamięci", - "embedding.load.llama.evalBatchSize/info": "Ustawia liczbę tokenów przetwarzanych razem w jednej partii podczas ewaluacji", + "embedding.load.contextLength/subTitle": "Maksymalna liczba tokenów, które model może obsłużyć w jednym poleceniu. Więcej sposobów zarządzania tą opcją można znaleźć w opcjach przepełnienia konwersacji w sekcji „Parametry wnioskowania”.", + "embedding.load.contextLength/info": "Określa maksymalną liczbę tokenów, które model może uwzględnić jednocześnie, co ma wpływ na ilość kontekstu zachowanego podczas przetwarzania.", + "embedding.load.llama.ropeFrequencyBase/title": "Podstawa częstotliwości RoPE", + "embedding.load.llama.ropeFrequencyBase/subTitle": "Niestandardowa częstotliwość bazowa dla osadzeń pozycyjno-obrotowych (RoPE). Zwiększenie jej może zapewnić lepszą wydajność przy dużych długościach kontekstu.", + "embedding.load.llama.ropeFrequencyBase/info": "[Zaawansowane] Dostosowuje częstotliwość bazową dla kodowania położenia obrotowego, wpływając na sposób osadzania informacji o położeniu.", + "embedding.load.llama.evalBatchSize/title": "Wielkość partii do oceny", + "embedding.load.llama.evalBatchSize/subTitle": "Liczba tokenów wejściowych do przetworzenia w danym momencie. Zwiększenie tej liczby zwiększa wydajność kosztem zużycia pamięci.", + "embedding.load.llama.evalBatchSize/info": "Ustawia liczbę tokenów przetwarzanych jednocześnie w jednej partii podczas oceny", "embedding.load.llama.ropeFrequencyScale/title": "Skala częstotliwości RoPE", - "embedding.load.llama.ropeFrequencyScale/subTitle": "Długość kontekstu jest skalowana przez ten czynnik, aby rozszerzyć efektywny kontekst przy użyciu RoPE", - "embedding.load.llama.ropeFrequencyScale/info": "[Zaawansowane] Modyfikuje skalowanie częstotliwości dla Rotacyjnego Kodowania Pozycyjnego, aby kontrolować ziarnistość kodowania pozycyjnego", - "embedding.load.llama.acceleration.offloadRatio/title": "Offload GPU", - "embedding.load.llama.acceleration.offloadRatio/subTitle": "Liczba dyskretnych warstw modelu do obliczenia na GPU dla akceleracji GPU", - "embedding.load.llama.acceleration.offloadRatio/info": "Ustaw liczbę warstw do przeniesienia na GPU.", - "embedding.load.llama.keepModelInMemory/title": "Utrzymuj model w pamięci", - "embedding.load.llama.keepModelInMemory/subTitle": "Rezerwuj pamięć systemową dla modelu, nawet gdy jest przeniesiony na GPU. Poprawia wydajność, ale wymaga więcej pamięci RAM systemu", - "embedding.load.llama.keepModelInMemory/info": "Zapobiega wymianie modelu na dysk, zapewniając szybszy dostęp kosztem większego zużycia pamięci RAM", - "embedding.load.llama.tryMmap/title": "Spróbuj mmap()", - "embedding.load.llama.tryMmap/subTitle": "Poprawia czas ładowania modelu. Wyłączenie tego może poprawić wydajność, gdy model jest większy niż dostępna pamięć RAM systemu", - "embedding.load.llama.tryMmap/info": "Ładuj pliki modelu bezpośrednio z dysku do pamięci", + "embedding.load.llama.ropeFrequencyScale/subTitle": "Długość kontekstu jest skalowana według tego współczynnika, aby wydłużyć efektywny kontekst przy użyciu RoPE", + "embedding.load.llama.ropeFrequencyScale/info": "[Zaawansowane] Modyfikuje skalowanie częstotliwości dla kodowania pozycyjnego obrotowego w celu kontrolowania granularności kodowania pozycyjnego", + "embedding.load.llama.acceleration.offloadRatio/title": "Odciążenie GPU", + "embedding.load.llama.acceleration.offloadRatio/subTitle": "Liczba odrębnych warstw modelu do obliczenia na GPU w celu przyspieszenia GPU", + "embedding.load.llama.acceleration.offloadRatio/info": "Ustaw liczbę warstw, które chcesz przekazać do procesora GPU.", + "embedding.load.llama.keepModelInMemory/title": "Zachowaj model w pamięci", + "embedding.load.llama.keepModelInMemory/subTitle": "Rezerwuj pamięć systemową dla modelu, nawet po przeniesieniu jej na GPU. Poprawia wydajność, ale wymaga więcej pamięci RAM.", + "embedding.load.llama.keepModelInMemory/info": "Zapobiega przenoszeniu modelu na dysk, zapewniając szybszy dostęp kosztem większego zużycia pamięci RAM.", + "embedding.load.llama.tryMmap/title": "Wypróbuj mmap()", + "embedding.load.llama.tryMmap/subTitle": "Skraca czas ładowania modelu. Wyłączenie tej opcji może poprawić wydajność, gdy model jest większy niż dostępna pamięć RAM systemu.", + "embedding.load.llama.tryMmap/info": "Ładuj pliki modeli bezpośrednio z dysku do pamięci", "embedding.load.seed/title": "Ziarno", - "embedding.load.seed/subTitle": "Ziarno dla generatora liczb losowych używanego w generowaniu tekstu. -1 oznacza losowe ziarno", - "embedding.load.seed/info": "Ziarno losowe: Ustawia ziarno dla generowania liczb losowych, aby zapewnić powtarzalne wyniki" + "embedding.load.seed/subTitle": "Ziarno generatora liczb losowych używanego do generowania tekstu. -1 to ziarno losowe", + + "embedding.load.seed/info": "Losowe ziarno: Ustawia ziarno do generowania liczb losowych, aby zapewnić powtarzalne wyniki", + + "presetTooltip": { + "included/title": "Ustawienia wstępne", + "included/description": "Następujące pola zostaną zastosowane", + "included/empty": "Żadne z pól tego ustawienia wstępnego nie ma zastosowania w tym kontekście.", + "included/conflict": "Zostaniesz poproszony o wybranie, czy zastosować tę wartość", + "separateLoad/title": "Konfiguracja w czasie ładowania", + "separateLoad/description.1": "Ustawienie wstępne obejmuje również następującą konfigurację czasu ładowania. Konfiguracja czasu ładowania dotyczy całego modelu i wymaga ponownego załadowania modelu, aby zaczęła obowiązywać. Przytrzymaj", + "separateLoad/description.2": "aby zastosować", + "separateLoad/description.3": ".", + "excluded/title": "Może nie mieć zastosowania", + "excluded/description": "Poniższe pola są zawarte w ustawieniach wstępnych, ale nie mają zastosowania w bieżącym kontekście.", + "legacy/title": "Ustawienia starszego typu", + "legacy/description": "To ustawienie wstępne jest ustawieniem starszego typu. Zawiera ono następujące pola, które obecnie są obsługiwane automatycznie lub nie mają już zastosowania.", + "button/publish": "Opublikuj w Hub", + "button/pushUpdate": "Prześlij zmiany do Hub", + "button/noChangesToPush": "Brak zmian do przesłania", + "button/export": "Eksportuj", + "hubLabel": "Ustawienie wstępne z Hub od {{user}}", + "ownHubLabel": "Twoje ustawienia wstępne z Hub" + }, + + "customInputs": { + "string": { + "emptyParagraph": "" + }, + "checkboxNumeric": { + "off": "Wyłącz" + }, + "llamaCacheQuantizationType": { + "off": "Wyłącz" + }, + "mlxKvCacheBits": { + "off": "Wyłącz" + }, + "stringArray": { + "empty": "" + }, + "llmPromptTemplate": { + "type": "Typ", + "types.jinja/label": "Szablon (Jinja)", + "jinja.bosToken/label": "BOS Token", + "jinja.eosToken/label": "EOS Token", + "jinja.template/label": "Szablon", + "jinja/error": "Nie udało się przetworzyć szablonu Jinja.: {{error}}", + "jinja/empty": "Wpisz powyżej szablon Jinja.", + "jinja/unlikelyToWork": "Szablon Jinja, który podałeś powyżej, prawdopodobnie nie będzie działał, ponieważ nie odwołuje się do zmiennej \"messages\". Sprawdź, czy wprowadziłeś prawidłowy szablon.", + "types.manual/label": "Ręczny", + "manual.subfield.beforeSystem/label": "Przed systemem", + "manual.subfield.beforeSystem/placeholder": "Wprowadź prefiks systemu...", + "manual.subfield.afterSystem/label": "Po systemie", + "manual.subfield.afterSystem/placeholder": "Wprowadź sufiks systemu...", + "manual.subfield.beforeUser/label": "Przed Użytkownikiem", + "manual.subfield.beforeUser/placeholder": "Wprowadź prefiks Użytkownika...", + "manual.subfield.afterUser/label": "Po Użytkowniku", + "manual.subfield.afterUser/placeholder": "Wprowadź sufiks Użytkownika...", + "manual.subfield.beforeAssistant/label": "Przed Asystentem", + "manual.subfield.beforeAssistant/placeholder": "Wprowadź prefiks Asystenta...", + "manual.subfield.afterAssistant/label": "Po Asystencie", + "manual.subfield.afterAssistant/placeholder": "Wprowadź sufiks Asystenta...", + "stopStrings/label": "Dodatkowe ciągi zatrzymania", + "stopStrings/subTitle": "Szablony konkretnych ciągów znaków zatrzymania, które będą używane dodatkowo do ciągów znaków zatrzymania określonych przez użytkownika." + }, + "contextLength": { + "maxValueTooltip": "Jest to maksymalna liczba tokenów, do obsługi których model został przeszkolony. Kliknij, aby ustawić kontekst na tę wartość.", + "maxValueTextStart": "Model obsługuje do", + "maxValueTextEnd": "tokenów", + "tooltipHint": "Chociaż model może obsługiwać określoną liczbę tokenów, wydajność może ulec pogorszeniu, jeśli zasoby komputera nie są w stanie obsłużyć obciążenia — należy zachować ostrożność podczas zwiększania tej wartości." + }, + "contextOverflowPolicy": { + "stopAtLimit": "Zatrzymaj się przy limicie", + "stopAtLimitSub": "Zatrzymaj generowanie, gdy pamięć modelu zostanie zapełniona.", + "truncateMiddle": "Obetnij środek", + "truncateMiddleSub": "Usuwa wiadomości ze środka rozmowy, aby zrobić miejsce dla nowszych. Model nadal będzie pamiętał początek rozmowy.", + "rollingWindow": "Okres rozliczeniowy", + "rollingWindowSub": "Model zawsze otrzyma kilka najnowszych wiadomości, ale może zapomnieć początek rozmowy." + }, + "llamaAccelerationOffloadRatio": { + "max": "MAX", + "off": "Wyłącz" + }, + "gpuSplitStrategy": { + "evenly": "Równomiernie", + "favorMainGpu": "Preferuj główny GPU" + }, + "speculativeDecodingDraftModel": { + "readMore": "Przeczytaj, jak to działa", + "placeholder": "Wybierz kompatybilny model roboczy", + "noCompatible": "Nie znaleziono kompatybilnych modeli szkiców dla aktualnego wyboru modelu.", + "stillLoading": "Identyfikacja zgodnych modeli roboczych...", + "notCompatible": "Wybrany model roboczy () nie jest zgodny z aktualnym wyborem modelu ().", + "off": "Wyłącz", + "loadModelToSeeOptions": "Zamontuj model aby wyświetlić kompatybilne opcje.", + "compatibleWithNumberOfModels": "Zalecane dla co najmniej {{dynamicValue}} modeli", + "recommendedForSomeModels": "Zalecane dla niektórych modeli", + "recommendedForLlamaModels": "Zalecane dla modeli Llama", + "recommendedForQwenModels": "Zalecane dla modeli Qwen", + "onboardingModal": { + "introducing": "Przedstawiamy", + "speculativeDecoding": "Spekulacyjne dekodowanie", + "firstStepBody": "Przyspieszenie wnioskowania dla modeli llama.cpp i MLX", + "secondStepTitle": "Przyspieszenie wnioskowania dzięki dekodowaniu spekulacyjnemu", + "secondStepBody": "Dekodowanie spekulacyjne to technika polegająca na współpracy dwóch modelis:\n - Większego \"main\" modelu\n - mniejszego \"draft\" modelu\n\nPodczas generowania model roboczy szybko proponuje tokeny do weryfikacji przez większy model główny. Weryfikacja tokenów jest procesem znacznie szybszym niż ich generowanie, co jest źródłem wzrostu szybkości. **Ogólnie rzecz biorąc, im większa różnica wielkości między modelem głównym a modelem roboczym, tym większe przyspieszenie**. Aby zachować jakość, model główny akceptuje tylko tokeny, które są zgodne z tym, co sam wygenerowałby, umożliwiając większy modelowi uzyskanie wysokiej jakości odpowiedzi przy większej szybkości wnioskowania. Oba modele muszą mieć ten sam słownik.", + "draftModelRecommendationsTitle": "Propozycje zaleceń dotyczących modelu", + "basedOnCurrentModels": "W oparciu o Twoje obecne modele", + "close": "Zamknij", + "next": "Dalej", + "done": "Gotowe" + }, + "speculativeDecodingLoadModelToSeeOptions": "Proszę najpierw zamontować model. ", + "errorEngineNotSupported": "Dekodowanie spekulacyjne wymaga co najmniej wersji {{minVersion}} silnika {{engineName}}. Aby korzystać z tej funkcji, należy zaktualizować silnik () i ponownie załadować model.", + "errorEngineNotSupported/noKey": "Dekodowanie spekulacyjne wymaga co najmniej wersji {{minVersion}} silnika {{engineName}}. Aby korzystać z tej funkcji, należy zaktualizować silnik i ponownie załadować model." + }, + "llmReasoningParsing": { + "startString/label": "Ciąg początkowy", + "startString/placeholder": "Wprowadź ciąg początkowy...", + "endString/label": "Koniec ciągu", + "endString/placeholder": "Wprowadź ciąg końcowy..." + } + }, + "saveConflictResolution": { + "title": "Wybierz wartości, które chcesz uwzględnić w ustawieniach wstępnych", + "description": "Wybierz i zdecyduj, które wartości chcesz zachować", + "instructions": "Kliknij wartość, aby ją uwzględnić", + "userValues": "Poprzednia wartość", + "presetValues": "Nowa wartość", + "confirm": "Potwierdź", + "cancel": "Anuluj" + }, + "applyConflictResolution": { + "title": "Które wartości zachować?", + "description": "Masz niezatwierdzone zmiany, które pokrywają się z nadchodzącym ustawieniem wstępnym", + "instructions": "Kliknij wartość, aby ją zachować", + "userValues": "Wartość bieżąca", + "presetValues": "Wchodząca wartość predefiniowana", + "confirm": "Potwierdź", + "cancel": "Anuluj" + }, + "empty": "", + "noModelSelected": "Nie wybrano żadnych modeli", + "apiIdentifier.label": "Identyfikator API", + "apiIdentifier.hint": "Opcjonalnie podaj identyfikator tego modelu. Będzie on używany w żądaniach API. Pozostaw puste, aby użyć domyślnego identyfikatora.", + "idleTTL.label": "Automatyczne rozładowywanie w stanie bezczynności (TTL)", + "idleTTL.hint": "Jeśli ustawione, model zostanie automatycznie rozładowany po upływie określonego czasu bezczynności.", + "idleTTL.mins": "minut", + + "presets": { + "title": "Ustawienie wstępne", + "saveChanges": "Zapisz", + "saveChanges/description": "Zapisz zmiany w ustawieniach wstępnych.", + "saveChanges.manual": "Wykryto nowe pola. Będziesz mógł wybrać, które zmiany chcesz uwzględnić w ustawieniach wstępnych.", + "saveChanges.manual.hold.0": "Trzymaj", + "saveChanges.manual.hold.1": "aby wybrać, które zmiany mają zostać zapisane w ustawieniach wstępnych.", + "saveChanges.saveAll.hold.0": "Trzymaj", + "saveChanges.saveAll.hold.1": "aby zapisać wszystkie zmiany.", + "saveChanges.saveInPreset.hold.0": "Trzymaj", + "saveChanges.saveInPreset.hold.1": "aby zapisać zmiany tylko w polach, które są już uwzględnione w ustawieniu wstępnym.", + "saveChanges/error": "Nie udało się zapisać zmian w ustawieniach wstępnych.", + "saveChanges.manual/description": "Wybierz zmiany, które chcesz uwzględnić w ustawieniach wstępnych.", + "saveAs": "Zapisz jako Nowy...", + "presetNamePlaceholder": "Wprowadź nazwę ustawienia wstępnego...", + "cannotCommitChangesLegacy": "To jest starsze ustawienie i nie można go modyfikować. Możesz utworzyć kopię, używając \"Zapisz jako Nowy...\".", + "cannotSaveChangesNoChanges": "Brak zmian do zapisania.", + "emptyNoUnsaved": "Wybierz ustawienie wstępne...", + "emptyWithUnsaved": "Niezapisane ustawienie wstępne", + "saveEmptyWithUnsaved": "Zapisz ustawienie wstępne jako...", + "saveConfirm": "Zapisz", + "saveCancel": "Anuluj", + "saving": "Zapisywanie...", + "save/error": "Nie udało się zapisać ustawienia wstępnego.", + "deselect": "Odznacz ustawienie wstępne", + "deselect/error": "Nie udało się odznaczyć ustawienia wstępnego.", + "select/error": "Nie udało się wybrać ustawienia wstępnego.", + "delete/error": "Nie udało się usunąć ustawienia wstępnego.", + "discardChanges": "Odrzuć niezapisane", + "discardChanges/info": "Odrzuć wszystkie niezapisane zmiany i przywróć ustawienia wstępne do stanu pierwotnego", + "newEmptyPreset": "+ Nowe ustawienie wstępne", + "importPreset": "Importuj", + "contextMenuCopyIdentifier": "Kopiuj identyfikator ustawienia wstępnego", + "contextMenuSelect": "Zastosuj ustawienia wstępne", + "contextMenuDelete": "Usuń...", + "contextMenuShare": "Opublikuj...", + "contextMenuOpenInHub": "Zobacz w Internecie", + "contextMenuPullFromHub": "Pobierz najnowsze", + "contextMenuPushChanges": "Prześlij zmiany do Hub", + "contextMenuPushingChanges": "Przesyłanie...", + "contextMenuPushedChanges": "Zmiany przesłane", + "contextMenuExport": "Eksportuj plik", + "contextMenuRevealInExplorer": "Pokaż w Eksploratorze plików", + "contextMenuRevealInFinder": "Pokaż w Finderze", + "share": { + "title": "Opublikuj ustawienia wstępne", + "action": "Udostępnij swoje ustawienia, aby inni mogli je pobrać, polubić i udostępnić", + "presetOwnerLabel": "Właściciel", + "uploadAs": "Twoje ustawienie wstępne zostanie utworzone jako {{name}}", + "presetNameLabel": "Nazwa ustawienia wstępnego", + "descriptionLabel": "Opis (opcjonalnie)", + "loading": "Publikowanie...", + "success": "Ustawienie wstępne pomyślnie przesłane", + "presetIsLive": " jest już dostępny w Hub!", + "close": "Zamknij", + "confirmViewOnWeb": "Zobacz w Internecie", + "confirmCopy": "Kopiuj URL", + "confirmCopied": "Skopiowano!", + "pushedToHub": "Twoje ustawienie wstępne zostało przesłane do Hub", + "descriptionPlaceholder": "Wprowadź opis...", + "willBePublic": "To ustawienie będzie publiczne. Każdy w internecie będzie mógł je zobaczyć.", + "willBePrivate": "Tylko Ty będziesz mógł zobaczyć to ustawienie wstępne", + "willBeOrgVisible": "To ustawienie będzie widoczne dla wszystkich w organizacji.", + "publicSubtitle": "Twoje ustawienie wstępne jest Publiczne. Inni mogą pobrać i utworzyć forka na lmstudio.ai", + "privateUsageReached": "Osiągnięto limit prywatnej liczby ustawień wstępnych.", + "continueInBrowser": "Kontynuuj w przeglądarce", + "confirmShareButton": "Opublikuj", + "error": "Nie udało się opublikować ustawienia wstępnego", + "createFreeAccount": "Załóż bezpłatne konto w Hub, aby publikować ustawienia wstępne" + }, + "update": { + "title": "Prześlij zmiany do Hub", + "title/success": "Ustawienia wstępne zostały pomyślnie zaktualizowane", + "subtitle": "Wprowadź zmiany w i prześlij je do Hub", + "descriptionLabel": "Opis", + "descriptionPlaceholder": "Wprowadź opis...", + "loading": "Przesyłanie...", + "cancel": "Anuluj", + "createFreeAccount": "Załóż bezpłatne konto w Hub, aby publikować ustawienia wstępne", + "error": "Nie udało się przesłać aktualizacji", + "confirmUpdateButton": "Prześlij" + }, + "resolve": { + "title": "Rozwiązuj konflikty...", + "tooltip": "Otwórz okno modalne, aby rozwiązać różnice z wersją Hub." + }, + "loginToManage": { + "title": "Zaloguj się, aby zarządzać..." + }, + "downloadFromHub": { + "title": "Pobierz", + "downloading": "Pobieranie...", + "success": "Pobrano!", + "error": "Nie udało się pobrać" + }, + "push": { + "title": "Prześlij zmiany", + "pushing": "Przesyłanie...", + "success": "Przesłano", + "tooltip": "Prześlij lokalne zmiany do zdalnej wersji hostowanej w Hub.", + "error": "Nie udało się przesłać" + }, + "saveAsNewModal": { + "title": "Ups! Nie znalazłem ustawienia wstępnego w Hub", + "confirmSaveAsNewDescription": "Czy chcesz opublikować to ustawienie jako nowe?", + "confirmButton": "Opublikuj jako Nowe" + }, + "pull": { + "title": "Pobierz najnowsze", + "error": "Nie udało się pobrać", + "contextMenuErrorMessage": "Nie udało się pobrać", + "success": "Pobrano", + "pulling": "Pobieranie...", + "upToDate": "Aktualny!", + "unsavedChangesModal": { + "title": "Masz niezapisane zmiany.", + "bodyContent": "Pobranie ze zdalnego źródła spowoduje nadpisanie niezapisanych zmian. Kontynuować?", + "confirmButton": "Nadpisz niezapisane zmiany" + } + }, + "import": { + "title": "Importuj ustawienie wstępne z pliku", + "dragPrompt": "Przeciągnij i upuść pliki ustawień wstępnych (.tar.gz lub preset.json) lub wybierz je ze swojego komputera", + "remove": "Usuń", + "cancel": "Anuluj", + "importPreset_zero": "Importuj ustawienia wstępne", + "importPreset_one": "Importuj ustawienie wstępne", + "importPreset_other": "Importuj {{count}} ustawień wstępnych", + "selectDialog": { + "title": "Wybierz plik ustawień wstępnych (preset.json lub .tar.gz)", + "button": "Importuj" + }, + "error": "Nie udało się zaimportować ustawień wstępnych", + "resultsModal": { + "titleSuccessSection_one": "Pomyślnie zaimportowano 1 ustawienie wstępne", + "titleSuccessSection_other": "Pomyślnie zaimportowano {{count}} ustawień wstępnych", + "titleFailSection_zero": "", + "titleFailSection_one": "({{count}} nie powiodło się)", + "titleFailSection_other": "({{count}} nie powiodło się)", + "titleAllFailed": "Nie udało się zaimportować ustawień wstępnych", + "importMore": "Importuj więcej", + "close": "Zrobione", + "successBadge": "Sukces", + "alreadyExistsBadge": "Ustawienie wstępne już istnieje", + "errorBadge": "Błąd", + "invalidFileBadge": "Niepoprawny plik", + "otherErrorBadge": "Nie udało się zaimportować ustawień wstępnych", + "errorViewDetailsButton": "Zobacz szczegóły", + "seeError": "Zobacz błąd", + "noName": "Brak ustawionej nazwy", + "useInChat": "Użyj w Czacie" + }, + "importFromUrl": { + "button": "Importuj z URL...", + "title": "Importuj z URL", + "back": "Importuj z pliku...", + "action": "Wklej poniżej adres URL LM Studio Hub ustawienia wstępnego, które chcesz zaimportować", + "invalidUrl": "Nieprawidłowy adres URL. Upewnij się, że wklejasz poprawny adres URL LM Studio Hub..", + "tip": "Możesz zainstalować ustawienia wstępne bezpośrednio za pomocą przycisku {{buttonName}} w LM Studio Hub", + "confirm": "Importuj", + "cancel": "Anuluj", + "loading": "Importowanie...", + "error": "Nie udało się pobrać ustawienia wstępnego." + } + }, + "download": { + "title": "Pobierz z LM Studio Hub", + "subtitle": "Zapisz w swoich ustawieniach wstępnych. Dzięki temu będziesz mógł używać tego ustawienia wstępnego w aplikacji.", + "button": "Pobierz", + "button/loading": "Pobieranie...", + "cancel": "Anuluj", + "error": "Nie udało się pobrać ustawienia wstępnego." + }, + "inclusiveness": { + "speculativeDecoding": "Uwzględnij w ustawieniach wstępnych" + } + }, + + "flashAttentionWarning": "Flash Attention to funkcja eksperymentalna, która może powodować problemy w niektórych modelach. W razie problemów spróbuj ją wyłączyć.", + "llamaKvCacheQuantizationWarning": "Kwantyzacja pamięci podręcznej KV to funkcja eksperymentalna, która może powodować problemy w niektórych modelach. Funkcja Flash Attention musi być włączona dla kwantyzacji pamięci podręcznej V. W przypadku problemów należy przywrócić ustawienia domyślne. \"F16\".", + + "seedUncheckedHint": "Losowe ziarno", + "ropeFrequencyBaseUncheckedHint": "Automatyczne", + "ropeFrequencyScaleUncheckedHint": "Automatyczne", + + "hardware": { + "environmentVariables": "Zmienne środowiskowe", + "environmentVariables.info": "Jeśli nie masz pewności, pozostaw wartości domyślne", + "environmentVariables.reset": "Przywróć ustawienia domyślne", + + "gpus.information": "Skonfiguruj jednostki przetwarzania grafiki (GPU) wykryte na Twoim komputerze", + "gpuSettings": { + "editMaxCapacity": "Edytuj maksymalną pojemność", + "hideEditMaxCapacity": "Ukryj Edytuj maksymalną pojemność", + "allOffWarning": "Wszystkie procesory GPU są wyłączone lub nieaktywne, należy upewnić się, że przydzielono odpowiednią liczbę procesorów GPU, aby umożliwić ładowanie modeli", + "split": { + "title": "Strategia", + "placeholder": "Wybierz alokację pamięci GPU", + "options": { + "generalDescription": "Skonfiguruj sposób montowania modeli na Twoje procesory GPU", + "evenly": { + "title": "Podziel równo", + "description": "Równomierne przydzielanie pamięci pomiędzy procesory graficzne" + }, + "priorityOrder": { + "title": "Kolejność priorytetowa", + "description": "Przeciągnij, aby zmienić priorytet. System spróbuje przydzielić więcej zasobów procesorom GPU wymienionym jako pierwsze." + }, + "custom": { + "title": "Ręcznie", + "description": "Przydziel pamięć", + "maxAllocation": "Maksymalny przydział" + } + } + }, + "deviceId.info": "Unikalny identyfikator tego urządzenia", + "changesOnlyAffectNewlyLoadedModels": "Zmiany będą dotyczyć wyłącznie nowo zamontowanych modeli", + "toggleGpu": "Włącz/Wyłącz GPU" + } + }, + + "load.gpuSplitConfig/title": "Konfiguracja podziału GPU", + "envVars/title": "Ustaw zmienną środowiskową", + "envVars": { + "select": { + "placeholder": "Wybierz zmienną środowiskową...", + "noOptions": "Nie ma już dostępnych", + "filter": { + "placeholder": "Filtruj wyniki wyszukiwania", + "resultsFound_zero": "Nie znaleziono wyników", + "resultsFound_one": "Znaleziono 1 wynik", + "resultsFound_other": "{{count}} znaleziono wyników" + } + }, + "inputValue": { + "placeholder": "Wprowadź wartość" + }, + "values": { + "title": "Bieżąca wartość" + } + } } diff --git a/pl/developer.json b/pl/developer.json index dd81a092..7bfe7d19 100644 --- a/pl/developer.json +++ b/pl/developer.json @@ -1,63 +1,197 @@ { "tabs/server": "Serwer lokalny", - "tabs/extensions": "Rozszerzenia", - "loadSettings/title": "Wczytaj ustawienia", - "modelSettings/placeholder": "Wybierz model do skonfigurowania", + "tabs/extensions": "Środowiska wykonawcze LM", + "loadSettings/title": "Załaduj ustawienia", + "modelSettings/placeholder": "Nie wybrano modelu", - "loadedModels/noModels": "Brak załadowanych modeli", + "loadedModels/noModels": "Nie załadowano modelu", "serverOptions/title": "Opcje serwera", "serverOptions/configurableTitle": "Opcje konfigurowalne", - "serverOptions/port/hint": "Ustaw port sieciowy, który będzie używany przez lokalny serwer. Domyślnie LM Studio używa portu 1234. Możesz potrzebować zmienić to, jeśli port jest już zajęty.", - "serverOptions/port/subtitle": "Port, na którym serwer będzie nasłuchiwać", - "serverOptions/autostart/title": "Automatyczne uruchamianie serwera", - "serverOptions/autostart/hint": "Uruchom lokalny serwer automatycznie po załadowaniu modelu", + "serverOptions/port/hint": "Ustaw port sieciowy, którego będzie używał serwer lokalny. Domyślnie LM Studio używa portu 1234. Może być konieczna zmiana tego portu, jeśli jest on już używany.", + "serverOptions/port/subtitle": "Port do nasłuchiwania", + "serverOptions/autostart/title": "Automatyczny start serwera", + "serverOptions/autostart/hint": "Automatyczne włączanie lokalnego serwera LLM LM Studio podczas uruchamiania aplikacji lub usługi", "serverOptions/port/integerWarning": "Numer portu musi być liczbą całkowitą", - "serverOptions/port/invalidPortWarning": "Port musi być w zakresie 1-65535", + "serverOptions/port/invalidPortWarning": "Port musi być pomiędzy 1 a 65535", "serverOptions/cors/title": "Włącz CORS", - "serverOptions/cors/hint1": "Włączenie CORS (Cross-origin Resource Sharing) pozwoli stronom, które odwiedzasz, na wykonywanie żądań do serwera LM Studio.", - "serverOptions/cors/hint2": "CORS może być wymagany podczas wykonywania żądań z strony internetowej lub VS Code / innego rozszerzenia.", - "serverOptions/cors/subtitle": "Zezwalaj na żądania między źródłami", + "serverOptions/cors/hint1": "Włączenie funkcji CORS (Cross-origin Resource Sharing) umożliwi odwiedzanym witrynom internetowym wysyłanie żądań do serwera LM Studio.", + "serverOptions/cors/hint2": "CORS może okazać się wymagany przy wysyłaniu żądań ze strony internetowej lub VS Code/innego rozszerzenia.", + "serverOptions/cors/subtitle": "Zezwalaj na żądania międzydomenowe (CORS)", "serverOptions/network/title": "Serwuj w sieci lokalnej", "serverOptions/network/subtitle": "Udostępnij serwer urządzeniom w sieci", "serverOptions/network/hint1": "Czy zezwolić na połączenia z innych urządzeń w sieci.", - "serverOptions/network/hint2": "Jeśli nie zaznaczone, serwer będzie nasłuchiwał tylko na localhost.", - "serverOptions/verboseLogging/title": "Szczegółowe logowanie", - "serverOptions/verboseLogging/subtitle": "Włącz szczegółowe logowanie dla lokalnego serwera", - "serverOptions/contentLogging/title": "Loguj zapytania i odpowiedzi", - "serverOptions/contentLogging/subtitle": "Ustawienia logowania zapytań / odpowiedzi lokalnych", - "serverOptions/contentLogging/hint": "Czy logować zapytania i/lub odpowiedzi w pliku logów serwera lokalnego.", + "serverOptions/network/hint2": "Jeśli nie zaznaczono, serwer będzie nasłuchiwał tylko na komputerze lokalnym.", + "serverOptions/verboseLogging/title": "Szczegółowe rejestrowanie", + "serverOptions/verboseLogging/subtitle": "Włącz szczegółowe rejestrowanie dla serwera lokalnego", + "serverOptions/contentLogging/title": "Rejestruj monity i odpowiedzi", + "serverOptions/contentLogging/subtitle": "Ustawienia rejestrowania lokalnych żądań/odpowiedzi", + "serverOptions/contentLogging/hint": "Czy rejestrować monity i/lub odpowiedzi w pliku dziennika serwera lokalnego.", + "serverOptions/redactContent/title": "Redact Content", + "serverOptions/redactContent/hint": "Po włączeniu tej opcji zapobiegniesz rejestrowaniu poufnych danych, takich jak zawartość żądań i odpowiedzi.", + "serverOptions/logIncomingTokens/title": "Rejestruj przychodzące tokeny", + "serverOptions/logIncomingTokens/hint": "Czy rejestrować każdy token w momencie jego generowania.", + "serverOptions/fileLoggingMode/title": "Tryb rejestrowania plików", + "serverOptions/fileLoggingMode/off/title": "Wyłącz", + "serverOptions/fileLoggingMode/off/hint": "Nie twórz plików rejestrowania", + "serverOptions/fileLoggingMode/succinct/title": "Zwięzły", + "serverOptions/fileLoggingMode/succinct/hint": "Rejestruj tę samą zawartość, co w konsoli. Długie żądania zostaną obcięte.", + "serverOptions/fileLoggingMode/full/title": "Pełny", + "serverOptions/fileLoggingMode/full/hint": "Nie obcinaj długich żądań.", + "serverOptions/jitModelLoading/title": "Ładowanie modelu Just-in-Time", + "serverOptions/jitModelLoading/hint": "Po włączeniu tej opcji, jeśli żądanie określi model, który nie został załadowany, zostanie on automatycznie załadowany i użyty. Ponadto \"/v1/models\" punkt końcowy będzie zawierał również modele, które nie zostały jeszcze załadowane.", "serverOptions/loadModel/error": "Nie udało się załadować modelu", + "serverOptions/jitModelLoadingTTL/title": "Automatycznie odmontuj zamontowane modele JIT", + "serverOptions/jitModelLoadingTTL/hint": "Model zamontowany w trybie Just-in-time (JIT) w celu obsłużenia żądania API zostanie automatycznie odmontowany po upływie określonego czasu nieużywania (TTL).", + "serverOptions/jitModelLoadingTTL/ttl/label": "Maksymalny czas bezczynności TTL", + "serverOptions/jitModelLoadingTTL/ttl/unit": "minuty", + "serverOptions/unloadPreviousJITModelOnLoad/title": "Zachowaj tylko ostatni załadowany model JIT", + "serverOptions/unloadPreviousJITModelOnLoad/hint": "Upewnij się, że maksymalnie 1 model jest zamontowany za pomocą JIT w dowolnym momencie (odmontowuje poprzedni model)", + "serverOptions/allowMcp/title": "Zezwalaj na zdalny MCP", + "serverOptions/allowMcp/hint": "Zezwól na używanie MCP, których nie ma w pliku mcp.json. Te połączenia MCP są ulotne i istnieją tylko tak długo, jak trwa żądanie. Obecnie obsługiwane są tylko zdalne MCP.", + "serverOptions/allowMcp/mode/off": "Wyłącz", + "serverOptions/allowMcp/mode/off/hint": "Nie zezwalaj na żądania serwera dotyczące korzystania z protokołu MCP", + "serverOptions/allowMcp/mode/remote": "Zdalny", + "serverOptions/allowMcp/mode/remote/hint": "Zezwól na połączenie ze zdalnymi serwerami MCP", - "serverLogs/scrollToBottom": "Przejdź na dół", + "serverOptions/start/error": "Nie udało się uruchomić serwera", + "serverOptions/stop/error": "Nie udało się zatrzymać serwera", + + "serverLogs/scrollToBottom": "Skocz na dół", "serverLogs/clearLogs": "Wyczyść logi ({{shortcut}})", "serverLogs/openLogsFolder": "Otwórz folder logów serwera", - "runtimeSettings/title": "Ustawienia środowiska uruchomieniowego", - "runtimeSettings/chooseRuntime/title": "Skonfiguruj środowiska uruchomieniowe", - "runtimeSettings/chooseRuntime/description": "Wybierz środowisko uruchomieniowe dla każdego formatu modelu", - "runtimeSettings/chooseRuntime/showAllVersions/label": "Pokaż wszystkie wersje", - "runtimeSettings/chooseRuntime/showAllVersions/hint": "Domyślnie LM Studio pokazuje tylko najnowszą wersję każdego środowiska uruchomieniowego. Włącz tę opcję, aby zobaczyć wszystkie dostępne wersje.", - "runtimeSettings/chooseRuntime/select/placeholder": "Wybierz środowisko uruchomieniowe", + "runtimeSettings/title": "Ustawienia środowiska wykonawczego", + "runtimeSettings/chooseRuntime/title": "Wybory", + "runtimeSettings/chooseRuntime/description": "Wybierz silnik, który ma być używany dla każdego formatu modelu", + "runtimeSettings/chooseRuntime/showAllVersions/label": "Pokaż wszystkie pakiety rozszerzeń", + "runtimeSettings/chooseRuntime/showAllVersions/hint": "Domyślnie LM Studio wyświetla tylko najnowszą wersję każdego pakietu rozszerzeń. Włącz tę opcję, aby wyświetlić wszystkie dostępne pakiety rozszerzeń.", + "runtimeSettings/chooseRuntime/select/placeholder": "Wybierz silnik", + + "runtimeSettings/chooseFrameworks/title": "Struktury", + "runtimeSettings/chooseFrameworks/description": "Wybierz strukturę, której chcesz użyć dla każdej funkcjonalności", + "runtimeSettings/chooseFramework/documentParser/builtIn/label": "Wbudowany parser", + "runtimeSettings/chooseFramework/documentParser/select/label": "Parser dokumentów", + "runtimeSettings/chooseFramework/documentParser/select/placeholder": "Wybierz parser dokumentu", "runtimeOptions/uninstall": "Odinstaluj", - "runtimeOptions/uninstallDialog/title": "Odinstalować {{runtimeName}}?", - "runtimeOptions/uninstallDialog/body": "Odinstalowanie tego środowiska uruchomieniowego usunie je z systemu. Ta akcja jest nieodwracalna.", - "runtimeOptions/uninstallDialog/body/caveats": "Niektóre pliki mogą zostać usunięte tylko po ponownym uruchomieniu LM Studio.", - "runtimeOptions/uninstallDialog/error": "Nie udało się odinstalować środowiska uruchomieniowego", + "runtimeOptions/uninstallDialog/title": "Odinstaluj {{runtimeName}}?", + "runtimeOptions/uninstallDialog/body": "Odinstalowanie tego środowiska uruchomieniowego spowoduje jego usunięcie z systemu. Ta czynność jest nieodwracalna.", + "runtimeOptions/uninstallDialog/body/caveats": "Niektóre pliki mogą zostać usunięte dopiero po ponownym uruchomieniu LM Studio.", + "runtimeOptions/uninstallDialog/error": "Nie udało się odinstalować środowiska wykonawczego", "runtimeOptions/uninstallDialog/confirm": "Kontynuuj i odinstaluj", "runtimeOptions/uninstallDialog/cancel": "Anuluj", + "runtimeOptions/noCompatibleRuntimes": "Nie znaleziono zgodnych środowisk wykonawczych", + "runtimeOptions/downloadIncompatibleRuntime": "To środowisko wykonawcze zostało uznane za niezgodne z Twoim komputerem. Najprawdopodobniej nie będzie działać.", + "runtimeOptions/noRuntimes": "Nie znaleziono środowisk wykonawczych", + + "runtimes": { + "manageLMRuntimes": "Zarządzaj środowiskiem wykonawczym LM", + "includeOlderRuntimeVersions": "Uwzględnij starsze wersje", + "dismiss": "Odrzuć", + "updateAvailableToast": { + "title": "Aktualizacja Środowiska wykonawczego jest dostępna!" + }, + "updatedToast": { + "title": " ✅ Zaktualizowano środowisko wykonawcze LM: {{runtime}} → v{{version}}", + "preferencesUpdated": "Nowo załadowane {{compatibilityTypes}} modele będą używać zaktualizowanego Środowiska wykonawczego." + }, + "noAvx2ErrorMessage": "Wszystkie środowiska uruchomieniowe LM wymagają obecnie procesora obsługującego AVX2", + "downloadableRuntimes": { + "runtimeExtensionPacks": "Pakiety rozszerzeń środowiska wykonawczego", + "refresh": "Odśwież", + "refreshing": "Odświeżanie...", + "filterSegment": { + "compatibleOnly": "Tylko kompatybilne", + "all": "Wszystkie" + }, + "card": { + "releaseNotes": "Informacje o wydaniu", + "latestVersionInstalled": "Najnowsza wersja zainstalowana", + "updateAvailable": "Dostępna aktualizacja" + } + }, + "installedRuntimes": { + "manage": { + "title": "Zarządzaj aktywnymi środowiskami wykonawczymi" + }, + "dropdownOptions": { + "installedVersions": "Zarządzaj wersjami", + "close": "Zamknij" + }, + "tabs": { + "all": "Wszystko", + "frameworks": "Moje struktury", + "engines": "Moje silniki" + }, + "detailsModal": { + "installedVersions": "Zainstalowane wersje dla {{runtimeName}}", + "manifestJsonTitle": "Manifest JSON (zaawansowany)", + "releaseNotesTitle": "Informacje o wydaniu", + "noReleaseNotes": "Brak dostępnych informacji o wydaniu dla tej wersji", + "back": "Wstecz", + "close": "Zamknij" + }, + "noEngines": "Brak zainstalowanych silników", + "noFrameworks": "Brak zainstalowanych struktur" + } + }, + + "inferenceParams/noParams": "Dla tego typu modelu nie są dostępne żadne konfigurowalne parametry wnioskowania", - "inferenceParams/noParams": "Brak konfigurowalnych parametrów wnioskowania dostępnych dla tego typu modelu", + "quickDocs": { + "tabChipTitle": "Dokumentacja dla programistów", + "newToolUsePopover": "Fragmenty kodu są już dostępne w „Dokumentacji dla programistów”. Kliknij tutaj, aby rozpocząć korzystanie z narzędzi!", + "newToolUsePopoverTitle": "📚 Dokumentacja dla programistów", + "learnMore": "ℹ️ 👾 Aby dowiedzieć się więcej o lokalnych punktach końcowych serwera LM Studio, odwiedź stronę [documentation](https://lmstudio.ai/docs).", + "helloWorld": { + "title": "Witaj świecie!" + }, + "chat": { + "title": "Czat" + }, + "structuredOutput": { + "title": "Ustrukturyzowane wyjście" + }, + "imageInput": { + "title": "Wejście obrazu" + }, + "embeddings": { + "title": "Osadzenia" + }, + "toolUse": { + "title": "Użycie narzędzia", + "tab": { + "saveAsPythonFile": "Zapisz jako plik Pythona", + "runTheScript": "Uruchom skrypt:", + "savePythonFileCopyPaste": "Zapisz jako plik Pythona dla polecenia kopiowania i wklejania" + } + }, + "newBadge": "Nowy" + }, - "endpoints/openaiCompatRest/title": "Obsługiwane punkty końcowe (podobne do OpenAI)", + "endpoints/openaiCompatRest/title": "Obsługiwane punkty końcowe{{extra}}", + "endpoints/openaiCompatRest/segmentedLabel": "Jak OpenAI", "endpoints/openaiCompatRest/getModels": "Lista aktualnie załadowanych modeli", - "endpoints/openaiCompatRest/postCompletions": "Tryb Uzupełnień Tekstowych. Przewiduj następny token(y) na podstawie zapytania. Uwaga: OpenAI uważa ten punkt końcowy za 'przestarzały'.", - "endpoints/openaiCompatRest/postChatCompletions": "Uzupełnienia czatowe. Wyślij historię czatu do modelu, aby przewidzieć następną odpowiedź asystenta", - "endpoints/openaiCompatRest/postEmbeddings": "Osadzenia Tekstowe. Generuj osadzenia tekstowe dla podanego wejścia tekstowego. Przyjmuje ciąg lub tablicę ciągów.", - - "model.createVirtualModelFromInstance": "Zapisz ustawienia jako nowy wirtualny model", - "model.createVirtualModelFromInstance/error": "Nie udało się zapisać ustawień jako nowego wirtualnego modelu", - + "endpoints/openaiCompatRest/postCompletions": "Tryb uzupełniania tekstu. Po wyświetleniu monitu wytypuj następny token(y). Uwaga: OpenAI uważa ten punkt końcowy za „przestarzały”.", + "endpoints/openaiCompatRest/postChatCompletions": "Zakończenia czatu. Wyślij historię czatów do modelu, aby przewidzieć następną odpowiedź asystenta", + "endpoints/openaiCompatRest/postEmbeddings": "Osadzanie tekstu. Generuj osadzanie tekstu dla danego wprowadzonego tekstu. Pobiera ciąg lub tablicę ciągów.", + "endpoints/openaiCompatRest/postResponses": "Zaawansowany interfejs do generowania odpowiedzi modelowych. Twórz interakcje stanowe, przekazując identyfikator poprzednich odpowiedzi jako dane wejściowe do następnej.", + "endpoints/lmStudioRest/segmentedLabel": "LM Studio", + "endpoints/lmStudioRestV1/getModels": "Lista dostępnych modeli", + "endpoints/lmStudioRestV1/postModelsLoad": "Załaduj model z opcjami", + "endpoints/lmStudioRestV1/postModelsDownload": "Pobierz model", + "endpoints/lmStudioRestV1/postChat": "Czatuj z modelem. Obsługuje wieloetapowe rozmowy z zachowaniem stanu oraz MCP.", + "endpoints/lmStudioRestV1/getModelsDownloadStatus": "Uzyskaj status pobrania modelu", + "endpoints/anthropicCompatRest/segmentedLabel": "Kompatybilne z Anthropic", + + "model.createVirtualModelFromInstance": "Zapisz ustawienia jako nowy model wirtualny", + "model.createVirtualModelFromInstance/error": "Nie udało się zapisać ustawień jako nowego modelu wirtualnego", + + "model": { + "toolUseSectionTitle": "Użycie narzędzia", + "toolUseDescription": "Wykryto, że model ten został przeszkolony w zakresie obsługi narzędzi\n\nOtwórz developer docs aby uzyskać więcej informacji." + }, + "apiConfigOptions/title": "Konfiguracja API" -} \ No newline at end of file +} diff --git a/pl/discover.json b/pl/discover.json index d0151f63..e1fbc299 100644 --- a/pl/discover.json +++ b/pl/discover.json @@ -1,28 +1,29 @@ { "collectionsColumn": "Kolekcje", - "collectionsColumn/collectionError": "Błąd podczas wczytywania szczegółów kolekcji, spróbuj odświeżyć powyżej", + "collectionsColumn/collectionError": "Błąd ładowania szczegółów kolekcji, spróbuj odświeżyć widok powyżej.", "bookmarksColumn": "Zakładki", - "searchBar/placeholder": "Szukaj modeli na Hugging Face...", - "searchBar/huggingFaceError": "Wystąpił błąd podczas pobierania wyników z Hugging Face, spróbuj ponownie za chwilę", + "searchBar/placeholder": "Szukaj modelu według nazwy lub autora...", + "searchBar/huggingFaceError": "Wystąpił błąd podczas pobierania wyników z Hugging Face, spróbuj ponownie później.", "sortBy": "Sortuj według", "searchSortKey.default/title": "Najlepsze dopasowanie", "searchSortKey.likes/title": "Najwięcej polubień", "searchSortKey.downloads/title": "Najwięcej pobrań", "searchSortKey.lastModified/title": "Ostatnio zaktualizowane", "searchSortKey.createdAt/title": "Ostatnio utworzone", - "download.option.willFitEstimation.caveat": "Mogą istnieć inne czynniki uniemożliwiające jego załadowanie, takie jak architektura modelu, integralność pliku modelu lub ilość dostępnej pamięci na komputerze.", - "download.option.willFitEstimation.fullGPUOffload/title": "Możliwe pełne przeniesienie na GPU", - "download.option.willFitEstimation.fullGPUOffload/description": "Ten model może zmieścić się całkowicie w pamięci Twojego GPU. Może to znacznie przyspieszyć wnioskowanie.", - "download.option.willFitEstimation.partialGPUOffload/title": "Możliwe częściowe przeniesienie na GPU", - "download.option.willFitEstimation.partialGPUOffload/description": "Ten model może częściowo zmieścić się w pamięci Twojego GPU. Może to często znacznie przyspieszyć wnioskowanie.", - "download.option.willFitEstimation.fitWithoutGPU/title": "Prawdopodobnie się zmieści", - "download.option.willFitEstimation.fitWithoutGPU/description": "Ten model prawdopodobnie zmieści się w pamięci Twojego urządzenia.", - "download.option.willFitEstimation.willNotFit/title": "Prawdopodobnie za duży dla tego urządzenia", - "download.option.willFitEstimation.willNotFit/description": "Wymagania pamięciowe do pomyślnego użycia tego pliku modelu mogą przekraczać dostępne zasoby na Twoim urządzeniu. Pobieranie tego pliku NIE jest zalecane.", - "download.option.recommended/title": "Zalecane", - "download.option.recommended/description": "Na podstawie Twojego sprzętu, ta opcja jest zalecana.", - "download.option.downloaded/title": "Pobrane", + "download.option.willFitEstimation.caveat": "Mogą istnieć inne czynniki uniemożliwiające załadowanie modelu, np. architektura modelu, integralność pliku modelu lub ilość pamięci dostępnej na komputerze.", + "download.option.willFitEstimation.fullGPUOffload/title": "Możliwe pełne odciążenie GPU", + "download.option.willFitEstimation.fullGPUOffload/description": "Ten model może zmieścić się w całości w pamięci Twojego GPU. To może znacznie przyspieszyć wnioskowanie.", + "download.option.willFitEstimation.partialGPUOffload/title": "Możliwe częściowe odciążenie GPU", + "download.option.willFitEstimation.partialGPUOffload/description": "Ten model może częściowo zmieścić się w pamięci Twojego GPU. Często może to znacznie przyspieszyć wnioskowanie.", + "download.option.willFitEstimation.fitWithoutGPU/title": "Prawdopodobne dopasowanie", + "download.option.willFitEstimation.fitWithoutGPU/description": "Ten model prawdopodobnie zmieści się w pamięci Twojego komputera.", + "download.option.willFitEstimation.willNotFit/title": "Prawdopodobnie za duży", + "download.option.willFitEstimation.willNotFit/description": "Wymagania dotyczące pamięci niezbędnej do prawidłowego korzystania z tego pliku modelu mogą przekraczać dostępne zasoby na Twoim komputerze. Pobieranie tego pliku NIE jest zalecane.", + "download.option.recommended/title": "Rekomendowane", + "download.option.recommended/description": "Zalecana jest ta opcja, biorąc pod uwagę możliwości Twojego sprzętu.", + "download.option.downloaded/title": "Pobrano", "download.option.downloading/title": "Pobieranie ({{progressPercentile}}%)", - + "failedToStartDownload": "Nie udało się rozpocząć pobierania", + "feed.action.refresh": "Odśwież kanał" -} \ No newline at end of file +} diff --git a/pl/download.json b/pl/download.json index b2bef580..2c9e43ad 100644 --- a/pl/download.json +++ b/pl/download.json @@ -1,19 +1,43 @@ { - "postDownloadActionExecutor.zipExtraction/status": "Rozpakowywanie...", - "finalizing": "Finalizowanie pobierania... (to może potrwać kilka chwil)", + "postDownloadActionExecutor.zipExtraction/status": "Wyodrębnianie plików...", + "postDownloadActionExecutor.tarGzExtraction/status": "Wyodrębnianie plików...", + "postDownloadActionExecutor.runtimeIndexerTarGzExtraction/status": "Wyodrębnianie plików...", + "postDownloadActionExecutor.modifyModelData/status": "Aktualizowanie danych modelu...", + "postDownloadActionExecutor.notification/status": "Powiadamianie użytkownika...", + "postDownloadActionExecutor.writeString/status": "Zapisywanie metadanych...", + "postDownloadActionExecutor.updateSelectedBackendVersions/status": "Aktualizowanie wybranej wersji...", + "postDownloadActionExecutor.extensionPackAutoDeletion/status": "Usuwanie nieużywanych rozszerzeń...", + "postDownloadActionExecutor.pluginInstall/status": "Instalowanie wtyczki...", + "postDownloadActionExecutor.pluginUninstall/status": "Odinstalowywanie wtyczki...", + + "finalizing": "Finalizowanie pobierania... (może to potrwać chwilę)", "noOptions": "Brak dostępnych kompatybilnych opcji do pobrania", - - "deeplink/confirmation/title": "Pobierz model z Hugging Face 🤗", + + "deeplink/confirmation/title": "Pobierz model ze strony Hugging Face 🤗", "deeplink/confirmation/subtitle": "{{modelName}}", - "deeplink/confirmation/selectRecommended": "Wybierz zalecane", + "deeplink/confirmation/selectRecommended": "Wybierz rekomendowane", "deeplink/confirmation/selectOption": "Wybierz opcję pobierania", "deeplink/confirmation/recommendedOption": "Prawdopodobnie najlepsza opcja dla większości użytkowników", "deeplink/confirmation/downloadButton": "Pobierz", - "deeplink/confirmation/nevermindButton": "Nieważne", - "deeplink/confirmation/modelPresent/title": "Znaleziono model Hugging Face ✅", - "deeplink/confirmation/modelPresent/body": "Dobra wiadomość! Ten plik modelu jest już dostępny na Twoim lokalnym urządzeniu.", + "deeplink/confirmation/nevermindButton": "Zapomnij", + "deeplink/confirmation/modelPresent/title": "Znaleziono model ze strony Hugging Face ✅", + "deeplink/confirmation/modelPresent/body": "Dobra wiadomość! Ten plik modelu jest już dostępny na Twoim komputerze.", "deeplink/confirmation/loadInChat": "Załaduj {{ modelName }} w nowym czacie", - "deeplink/error/modelNotFound/title": "Ups, nie udało nam się znaleźć tego modelu", - "deeplink/error/modelNotFound/body": "Sprawdź ponownie nazwę modelu i rozważ wypróbowanie innej opcji pobierania.", - "deeplink/actions/trySearching": "Spróbuj wyszukać {{modelName}} na Hugging Face" -} \ No newline at end of file + "deeplink/error/modelNotFound/title": "Ruh roh, nie udało nam się znaleźć tego modelu", + "deeplink/error/modelNotFound/body": "Sprawdź dokładnie nazwę modelu i rozważ wypróbowanie innej opcji pobierania.", + "deeplink/actions/trySearching": "Spróbuj poszukać modelu {{modelName}} na stronie Hugging Face", + + "downloadsPanel/title": "Pobrane", + "downloadsPanel/sectionTitle/ongoing": "Bieżące", + "downloadsPanel/sectionTitle/completed": "Ukończone", + "downloadsPanel": { + "reveal": { + "mac": "Pokaż w Finderze", + "mac/error": "Nie udało się pokazać w Finderze", + "nonMac": "Pokaż w Eksploratorze plików", + "nonMac/error": "Nie udało się pokazać w Eksploratorze plików" + }, + "completed": "Pobieranie ukończone", + "loadModel": "Załaduj model" + } +} diff --git a/pl/models.json b/pl/models.json index a18286c6..51c478c7 100644 --- a/pl/models.json +++ b/pl/models.json @@ -1,79 +1,132 @@ { - "pageTitle": "Moje Modele", + "pageTitle": "Moje modele", "filterModels.placeholder": "Filtruj modele...", + "aggregate_one": "Masz {{count}} lokalnych modeli, zajmujących {{size}} miejsca na dysku", + "aggregate_other": "Masz {{count}} lokalnych modeli, zajmujących {{size}} miejsca na dysku", - "noModels.title": "Twoje lokalne LLM-y pojawią się tutaj.", - "noModels.discoverButtonText.prefix": "Kliknij przycisk", - "noModels.discoverButtonText.suffix": "na lewym pasku bocznym, aby odkryć interesujące LLM-y do pobrania.", - "noModels.discoverModelsPrompt": "Idź i odkrywaj lokalne LLM-y!", + "noModels.title": "Twoje modele będą tutaj wyświetlane.", + "noModels.discoverButtonText.prefix": "Kliknij", + "noModels.discoverButtonText.suffix": "przycisk umożliwiający znalezienie modeli do pobrania.", + "noModels.discoverModelsPrompt": "Przejdź i poznaj lokalne modele LLM!", "modelsTable.arch/label": "Architektura", "modelsTable.params/label": "Parametry", "modelsTable.publisher/label": "Wydawca", - "modelsTable.llms/label": "LLM", - "modelsTable.embeddingModels/label": "Model Osadzania", - "modelsTable.quant/label": "Kwantyzacja", + "modelsTable.displayName/label": "Nazwa", + "modelsTable.modelKey/label": "Klucz modelu", "modelsTable.size/label": "Rozmiar", - "modelsTable.dateModified/label": "Data Modyfikacji", + "modelsTable.dateModified/label": "Zmodyfikowany", "modelsTable.actions/label": "Akcje", + "modelsTable.quant/label": "Ilościowy", + "modelsTable.llms/label": "LLM", + "modelsTable.embeddingModels/label": "Model osadzania", + "action.model.delete": "Usuń", - "action.model.delete.full": "Usuń Model", + "action.model.delete.full": "Usuń model", "action.model.delete.confirmation/title": "Usuń {{name}}", - "action.model.delete.confirmation/description": "Czy jesteś pewien? Ta akcja trwale usunie wszystkie pliki związane z tym modelem z Twojego urządzenia. Tej operacji nie można cofnąć.", + "action.model.delete.confirmation/description": "Czy jesteś pewien? Spowoduje to trwałe usunięcie wszystkich plików powiązanych z tym modelem z Twojego komputera. Ta czynność jest nieodwracalna.", "action.model.delete.confirmation/confirm": "Usuń", + "action.model.delete/error": "Nie udało się usunąć modelu", - "action.createVirtual": "Utwórz Preset", - "action.createVirtual.details/title": "Utwórz Preset", - "action.createVirtual.details/create": "Utwórz", - "action.createVirtual.details/cancel": "Anuluj", - "action.createVirtual.details.base/label": "Model Bazowy", - "action.createVirtual.details.name/label": "Nazwa", - "action.createVirtual.details.includeMachineDependent/label": "Uwzględnij Konfiguracje Zależne od Maszyny", - "action.createVirtual.details.includeMachineDependent/hint": "Czy uwzględnić konfiguracje zależne od maszyny (takie jak ustawienia GPU) w presecie. Niezalecane do udostępniania.", - "action.createVirtual.details.config/label": "Nadpisania Konfiguracji", - "action.createVirtual.details.config.empty": "Brak nadpisań konfiguracji", - "action.createVirtual.details/error": "Nie udało się utworzyć wirtualnego modelu.", - - "loader.model.bundled": "Dołączony", + "loader.model.bundled": "W pakiecie", "action.cancel": "Anuluj", - "indexingOngoing": "Indeksowanie modeli... To może potrwać kilka sekund", + "indexingOngoing": "Indeksowanie modeli... Może to potrwać kilka sekund", + "indexingPageLoaderText": "Indeksowanie modeli...", "index/error_one": "Nie udało się zindeksować następującego folderu:", "index/error_other": "Nie udało się zindeksować następujących folderów:", "badModels/title_one": "Nie udało się zindeksować następującego modelu:", "badModels/title_other": "Nie udało się zindeksować następujących modeli:", - "badModels.virtualModelIncorrectPlacement": "Nieprawidłowe umieszczenie wirtualnego modelu. Oczekiwano w {{expected}}. Znaleziono w {{actual}}.", - "badModels.virtualModelBadManifest": "Nieprawidłowy manifest wirtualnego modelu (model.yaml):", - "unresolvedVirtualModels/title_one": "Nie udało się rozwiązać następującego wirtualnego modelu:", - "unresolvedVirtualModels/title_other": "Nie udało się rozwiązać następujących wirtualnych modeli:", - "unresolvedVirtualModels.missingModel": "Brakuje zależnego modelu: {{missing}}. Ścieżka zależności:\n{{chain}}", + "badModels.virtualModelIncorrectPlacement": "Nieprawidłowe umiejscowienie modelu wirtualnego. Oczekiwano {{expected}}. Znaleziono {{actual}}.", + "badModels.virtualModelBadManifest": "Nieprawidłowy manifest modelu wirtualnego (model.yaml):", + "unresolvedVirtualModels/title_one": "Nie udało się rozwiązać następującego modelu wirtualnego:", + "unresolvedVirtualModels/title_other": "Nie udało się rozwiązać następujących modeli wirtualnych:", + "unresolvedVirtualModels.missingModel": "Brakuje modelu zależnego: {{missing}}. Ścieżka zależności:\n{{chain}}", "unresolvedVirtualModels.circular": "Wykryto zależność cykliczną.", + "unresolvedVirtualModels.fix": "Napraw", + "unresolvedVirtualModels.revealInExplorer": "Pokaż w Eksploratorze", + "unresolvedVirtualModels.revealInFinder": "Pokaż w Finderze", + "unresolvedVirtualModels.reveal/error": "Nie udało się pokazać", - "modelsDirectory": "Katalog Modeli", + "modelsDirectory": "Katalog modeli", "modelsDirectory.change": "Zmień...", - "modelsDirectory.reset": "Przywróć Domyślną Ścieżkę", + "modelsDirectory.change/error": "Nie udało się zmienić katalogu modeli", + "modelsDirectory.reset": "Przywróć domyślną ścieżkę", "modelsDirectory.reveal.mac": "Pokaż w Finderze", - "modelsDirectory.reveal.nonMac": "Otwórz w Eksploratorze plików", - "modelsDirectory.forceReindex": "Odśwież", - "loadState/loaded": "Załadowany", - "loadState/loading": "Ładowanie", - "loadState/unloaded": "Niezaładowany", - "loadState/unloading": "Wyładowywanie", - "loadState/idle": "Bezczynny", - "contextMenu/copyAbsolutePath": "Kopiuj Ścieżkę Bezwzględną", - "contextMenu/copyModelName": "Kopiuj Identyfikator Modelu", - "contextMenu/openOnHuggingFace": "Otwórz na Hugging Face...", - "tooltip/moreActions": "Więcej Akcji", - "tooltip/getInfo": "Uzyskaj Informacje", + "modelsDirectory.reveal.nonMac": "Pokaż w Eksploratorze", + "modelsDirectory.reveal.mac/error": "Nie udało się pokazać w Finderze", + "modelsDirectory.reveal.nonMac/error": "Nie udało się pokazać w Eksploratorze", + "modelsDirectory.forceReindex": "Odśwież listę modeli", + "loadState/loaded": "Zamontowany", + "loadState/loading": "Montowanie", + "loadState/unloaded": "Odmontowany", + "loadState/unloading": "Odmontowywanie", + "loadState/idle": "W spoczynku", + "pinned": "Ten model jest przypięty. Kliknij prawym przyciskiem myszy, aby odpiąć..", + "lastUsed": "Ostatnio używany", + "contextMenu/pin": "Przypnij na górze", + "contextMenu/unpin": "Odepnij", + "contextMenu/copyAbsolutePath": "Kopiuj ścieżkę absolutną", + "contextMenu/copyModelName": "Kopiuj ścieżkę modelu", + "contextMenu/copyModelDefaultIdentifier": "Kopiuj domyślny identyfikator", + "contextMenu/showRawMetadata": "Pokaż surowe metadane", + "contextMenu/openOnHuggingFace": "Otwórz na stronie Hugging Face", + "contextMenu": { + "showOnWeb": "Pokaż w Sieci", + "pullLatest": { + "label": "Pobierz najnowsze", + "checking": "Sprawdzanie aktualizacji...", + "upToDate": "Zaktualizowany", + "error": "Nie udało się sprawdziź aktualizacji" + } + }, + "tooltip/moreActions": "Więcej czynności", + "tooltip/getInfo": "Pobierz informacje", "tooltip/editModelDefaultConfig": "Edytuj domyślną konfigurację modelu", - "tooltip/editModelDefaultConfig/override": "Edytuj domyślną konfigurację modelu (* obecnie ma nadpisania", - "tooltip/visionBadge": "Ten model może przetwarzać dane wejściowe obrazów", + "tooltip/editModelDefaultConfig/override": "Edytuj domyślną konfigurację modelu (* ma nadpisania)", + "tooltip/visionBadge": "Ten model może przetwarzać dane wejściowe w postaci obrazu", + "tooltip/toolUseBadge": "Ten model został przeszkolony pod kątem obsługi narzędzi", + + "visionBadge/label": "Włączona wizja", + "toolUseBadge/label": "Przeszkolony w zakresie obsługi narzędzi", - "visionBadge/label": "Obsługa Obrazów Włączona", - - "loader.action.load": "Załaduj Model", - "loader.action.clearChanges": "Wyczyść Zmiany", + "loader.action.load": "Załaduj model", + "loader.action.clearChanges": "Wyczyść zmiany", "loader.action.cancel": "Anuluj", - "loader.info.clickOnModelToLoad": "Kliknij na model, aby go załadować", - "loader.info.configureLoadParameters": "Skonfiguruj parametry ładowania modelu" -} \ No newline at end of file + "loader.info.clickOnModelToLoad": "Kliknij model, aby go załadować", + "loader.info.configureLoadParameters": "Skonfiguruj parametry obciążenia modelu", + "loader.info.activeGeneratorWarning": "Używasz wtyczki z niestandardowym generatorem. Twój aktualnie załadowany model może, ale nie musi zostać zastosowany w tej wtyczce, w zależności od implementacji generatora.", + "loader.guardrails.estimatedMemoryUsage": "Szacowane użycie pamięci", + "loader.guardrails.total": "Całkowity", + "loader.guardrails.gpu": "GPU", + "loader.guardrails.unavailable": "Oszacowanie pamięci niedostępne dla tego modelu", + "loader.guardrails.notEnoughResources": "Za mało zasobów, aby załadować model z bieżącymi ustawieniami", + "loader.guardrails.notEnoughResources/options": "Opcje", + "loader.guardrails.notEnoughResources.moreInfoSection.appearsNotEnoughMemory": "Wygląda na to, że Twój system nie ma wystarczającej ilości pamięci, aby załadować ten model.", + "loader.guardrails.notEnoughResources.moreInfoSection.ifYouBelieveThisIsIncorrect": "Możesz dostosować zabezpieczenia załadunku modelu w ustawieniach lub przytrzymać aby załadować mimo wszystko.", + "loader.guardrails.notEnoughResources.moreInfoSection.warning": "Załadowanie zbyt dużego modelu może przeciążyć system i spowodować jego zawieszenie.", + "loader.guardrails.notEnoughResources.alwaysAllowLoadAnyway": "(Nie rekomendowane) Zawsze zezwalaj na opcję „Załaduj mimo to” bez przytrzymywania klawisza Alt/Option", + + "virtual": { + "local": { + "create": "Utwórz model wirtualny", + "title": "Utwórz lokalny model wirtualny", + "description": "Utwórz model wirtualny, łącząc model z zestawem konfiguracji. Wagi bazowe nie będą duplikowane.", + "modelKey.label": "Klucz modelu", + "modelKey.placeholder": "Wprowadź unikatowy klucz modelu", + "modelKey.normalized": "Twój klucz modelu zostanie znormalizowany do: {{normalized}}", + "baseModel.label": "Bazowy model", + "baseModel.placeholder": "Wybierz model bazowy", + "baseModel.empty": "Pobierz model, który będzie używany jako model bazowy", + "next": "Dalej", + "confirm": "Utwórz", + "error": "Nie udało się utworzyć wirtualnego modelu" + }, + "altsSelect": { + "title": "Przełącz źródło modelu", + "resetButton": "Przywróć ustawienia domyślne", + "description": "Dla tego modelu dostępnych jest wiele plików źródłowych.", + "trigger": "Warianty" + } + } +} diff --git a/pl/onboarding.json b/pl/onboarding.json index 646cbc11..3827661a 100644 --- a/pl/onboarding.json +++ b/pl/onboarding.json @@ -1,23 +1,42 @@ { - "action.skipOnboarding": "Pomiń wprowadzenie", - "action.next": "Dalej", + "action.skipOnboarding": "Pomiń wdrożenie", + "action.next": "Następny", "action.back": "Wstecz", "action.finish": "Zakończ", + "dismissable_rag_modal": { - "description": "Teraz możesz rozmawiać z własnymi dokumentami używając Generacji Wspomaganej Wyszukiwaniem (RAG). Oto jak to działa:", + "description": "Możesz teraz czatować z własnymi dokumentami dzięki technologii Retrieval Augmented Generation (RAG). Oto jak to działa:", "instructions": { "attach_files": { - "title": "Załącz Pliki", - "description": "Prześlij do 5 plików jednocześnie, o maksymalnym łącznym rozmiarze 30MB. Obsługiwane formaty to PDF, DOCX, TXT i CSV." + "title": "Dołącz pliki", + "description": "Prześlij maksymalnie 5 plików jednocześnie, o maksymalnym łącznym rozmiarze 30 MB. Obsługiwane formaty to PDF, DOCX, TXT i CSV." }, "be_specific": { - "title": "Bądź Konkretny", - "description": "Zadając pytania, podaj jak najwięcej szczegółów. Pomoże to systemowi pobrać najbardziej odpowiednie informacje z Twoich dokumentów." + "title": "Bądź dokładny", + "description": "Zadając pytania, podawaj jak najwięcej szczegółów. To pomoże systemowi wyszukać najistotniejsze informacje z Twoich dokumentów." }, "get_responses": { - "title": "Otrzymuj Odpowiedzi i Eksperymentuj", - "description": "LLM przeanalizuje Twoje zapytanie i pobrane fragmenty z Twoich dokumentów, a następnie spróbuje wygenerować odpowiedź. Eksperymentuj z różnymi zapytaniami, aby znaleźć to, co działa najlepiej." + "title": "Uzyskaj odpowiedzi i eksperymentuj", + "description": "LLM przeanalizuje Twoje zapytanie i pobrane fragmenty dokumentów, a następnie spróbuje wygenerować odpowiedź. Poeksperymentuj z różnymi zapytaniami, aby znaleźć najlepsze rozwiązanie." } } + }, + + "toolUse": { + "step_0": { + "title": "Beta: Korzystanie z narzędzi 🛠️ (wywoływanie funkcji)", + "text_0": "Niektóre modele (np. Llama 3.1/3.2, Mistral, Qwen i inne) zostały wyszkolone w zakresie korzystania z narzędzi.", + "text_1": "W praktyce oznacza to, że udostępniasz LLM tablicę „narzędzi” (sygnatur funkcji) w bardzo konkretnym formacie, a LLM może zdecydować, czy je „wywołać” na podstawie monitu użytkownika.", + "text_2": "Można sobie wyobrazić przypadki użycia, takie jak wykonywanie zapytań do interfejsu API, uruchamianie kodu lub cokolwiek, co można wyrazić jako wywołanie funkcji." + }, + "step_1": { + "title": "Rozpocznij korzystanie z narzędzi", + "toolUseCanWorkWithAnyModel": "Modele, które zostały wyszkolone pod kątem używania narzędzi, będą działać lepiej od innych, ale możesz spróbować używać narzędzi z dowolnym modelem. Przeczytaj dokumentację aby dowiedzieś się więcej.\nModele, które zostały przeszkolone w zakresie obsługi narzędzi, zostaną oznaczone nowym znacznikiem:", + "hasCompatibleModel": "🎉 Wygląda na to, że masz już modele ze wsparciem narzędzi!", + "downloadRecommendedModel": "Pobierz model wytrenowany pod kątem korzystania z narzędzi:" + }, + "nextButton": "Następny", + "letsGoButton": "Załaduj model i uruchom serwer", + "doneButton": "Odrzuć" } -} \ No newline at end of file +} diff --git a/pl/settings.json b/pl/settings.json index f3641a55..a6de8eba 100644 --- a/pl/settings.json +++ b/pl/settings.json @@ -1,114 +1,214 @@ { - "appUpdate": "Aktualizacja Aplikacji", - "checkingAppUpdate": "Sprawdzanie aktualizacji...", - "checkForUpdates": "Sprawdź aktualizacje", - "failedCheckingAppUpdate": "Nie udało się sprawdzić aktualizacji", - "newUpdateAvailable": "Nowa wersja LM Studio jest dostępna! 🎉", - "downloadingInProgress": "Pobieranie aktualizacji...", - "downloadUpdate": "Zaktualizuj do LM Studio {{version}}", - "downloadCompleted": "Pobieranie Zakończone!", - "updateDownloadComplete": "Aktualizacja Pobrana Pomyślnie!", - "updateDownloadFailed": "Aktualizacja Nie Powiodła Się!", - "hasFinishedDownloading": "zakończono pobieranie.", - "yourCurrentVersion": "Aktualnie używasz wersji:", - "latestVersion": "Najnowsza wersja to:", - "downloadLabel": "Zaktualizuj Teraz", - "cancelDownloadLabel": "Anuluj", - "downloadingUpdate": "Pobieranie aktualizacji...", - "updateDownloaded": "Nowa aktualizacja została pomyślnie pobrana. Uruchom ponownie aplikację, aby zastosować aktualizację.", - "restartAppToUpdate": "Uruchom ponownie aplikację, aby zastosować aktualizację", - "doItLater": "Zrobię to później", - "failedToUpdate": "Aktualizacja aplikacji nie powiodła się. Sprawdź połączenie internetowe lub spróbuj ponownie później.", - "retryInBackground": "Spróbuj ponownie w tle", - "laterLabel": "Później", - "releaseNotesLabel": "Informacje o wydaniu", - "remindMeLater": "Przypomnij mi później", - "failedDownloadUpdate": "Nie udało się pobrać aktualizacji", - "installAndRelaunch": "Zainstaluj i uruchom ponownie", - "uptodate": "Masz najnowszą wersję! Aktualna wersja to {{version}}", - "preferences": "Preferencje", - "sideButtonLabels": "Pokaż etykiety przycisków bocznych", - "colorThemeLabel": "Motyw Kolorystyczny", - "complexityLevelLabel": "Poziom Złożoności Interfejsu Użytkownika", - "selectComplexityLevelPlaceholder": "Wybierz domyślny poziom złożoności UI", - "userComplexityLevelLabel": "Użytkownik", - "powerUserComplexityLevelLabel": "Zaawansowany Użytkownik", - "developerComplexityLevelLabel": "Programista", - "chatSettingsLabel": "Ustawienia Czatu", - "chat/alwaysShowPromptTemplate": "Zawsze pokazuj szablon promptu w pasku bocznym Czatu", + "settingsDialogTitle": "Ustawienia aplikacji", + "settingsDialogButtonTooltip": "Ustawienia aplikacji", + "accountDialogButtonTooltip": "Konto", - "chat/keyboardShortcuts/label": "Skróty Klawiszowe", - "chat/keyboardShortcuts/verbPrefix": "Użyj", - "chat/keyboardShortcuts/regenerate": "aby wygenerować ponownie ostatnią wiadomość w czacie", - "chat/keyboardShortcuts/sendMessage": "aby wysłać wiadomość", + "settingsNewButtonPopover": { + "primary": "Ustawienia aplikacji znajdują się teraz w prawym dolnym rogu", + "secondary": "Kliknij przycisk ⚙️, aby je otworzyć.", + "tertiary": "Lub naciśnij" + }, + "appUpdate": "Aktualizacja aplikacji", + "checkingAppUpdate": "Sprawdzanie aktualizacji...", + "checkForUpdates": "Sprawdź aktualizacje", + "failedCheckingAppUpdate": "Nie udało się sprawdzić dostępności aktualizacji", + "newUpdateAvailable": "Dostępna jest nowa wersja LM Studio! 🎉", + "newBetaUpdateAvailable": "Dostępna jest nowa beta wersja LM Studio! 🛠️🎉", + "downloadingInProgress": "Pobieranie aktualizacji...", + "downloadUpdate": "Zaktualizuj LM Studio do {{version}}", + "downloadBetaUpdate": "Zaktualizuj LM Studio do Beta {{version}} (build {{build}})", + "downloadCompleted": "Pobieranie ukończone!", + "updateDownloadComplete": "LM Studio aktualizacja jest gotowa", + "updateDownloadFailed": "Aktualizacja nie powiodła się!", + "hasFinishedDownloading": "zakończono pobieranie.", + "yourCurrentVersion": "Obecnie używasz:", + "latestVersion": "Najnowsza dostępna wersja to:", + "downloadLabel": "Aktualizuj teraz", + "downloadLabel/Linux": "Pobierz aktualizacje", + "cancelDownloadLabel": "Anuluj", + "downloadingUpdate": "Pobieranie {{item}}...", + "updateDownloaded": "Aby zastosować aktualizację, należy ponownie uruchomić aplikację", + "restartAppToUpdate": "Uruchom ponownie aplikację, aby zastosować aktualizację", + "appUpdatedToastTitle": "Zaktualizowano {{title}}", + "appUpdatedToastDescriptionPrefix": "Zobacz ", + "AppUpdatedToastDescriptionReleaseNotes": "Informacje o wydaniu", + "toolUseToastTitle": "Nowość w wersji beta: API do obsługi narzędzi i wywołań funkcji", + "toolUseToastDescription": "Zamiennik narzędzia OpenAI Tool do stosowania z wybranymi modelami, takimi jak Llama 3.1/3.2, Mistral i Qwen.", + "toolUseToastButtonText": "Przejdź na stronę dla programistów, aby ją wypróbować", + "doItLater": "Zrobię to później", + "failedToUpdate": "Aktualizacja aplikacji nie powiodła się. Sprawdź ponownie połączenie internetowe lub spróbuj ponownie później.", + "retryInBackground": "Ponów w tle", + "laterLabel": "Później", + "releaseNotesLabel": "Informacje o wydaniu", + "remindMeLater": "Przypomnij mi później", + "failedDownloadUpdate": "Nie udało się pobrać aktualizacji", + "installAndRelaunch": "Zainstaluj i uruchom ponownie", + "uptodate": "Jesteście na bieżąco! Aktualna wersja to {{version}}", + "preferences": "Preferencje", + "general": "Ogólne", + "sideButtonLabels": "Pokaż etykiety przycisków bocznych", + "showModelFileNames": "Moje modele: zawsze pokazuj pełną nazwę pliku modelu", + "colorThemeLabel": "Kolor motywu", + "appNavigationBarPositionLabel": "Pozycja paska nawigacyjnego", + "appNavigationBarPositionTop": "Góra", + "appNavigationBarPositionLeft": "Lewa", + "complexityLevelLabel": "Poziom złożoności interfejsu użytkownika", + "selectComplexityLevelPlaceholder": "Wybierz domyślny poziom złożoności interfejsu użytkownika", + "userComplexityLevelLabel": "Użytkownik", + "powerUserComplexityLevelLabel": "Użytkownik zaawansowany", + "developerComplexityLevelLabel": "Deweloper", + "chatSettingsLabel": "Ustawienia czatu", + "chat/alwaysShowPromptTemplate": "Zawsze pokazuj szablon monitu na pasku bocznym czatu", + "chat/highlightChatMessageOnHover": "Podświetl wiadomość czatu po najechaniu kursorem", + "chat/doubleClickMessageToEdit": "Kliknij dwukrotnie wiadomość czatu, aby ją edytować", - "onboarding/blockTitle": "Wskazówki Wprowadzające", - "onboarding/dismissedHints": "Odrzucone Wskazówki Wprowadzające", - "onboarding/resetHintTooltip": "Kliknij, aby ponownie włączyć tę wskazówkę wprowadzającą", - "onboarding/resetAllHints": "Zresetuj Wszystkie Wskazówki Wprowadzające", - "onboarding/noneDismissed": "Brak odrzuconych wskazówek, obecnie wszystkie pomocnicze wskazówki wprowadzające będą się pojawiać do momentu odrzucenia", - - "firstTimeExperienceLabel": "Pierwsze doświadczenie z czatem", - "firstTimeExperienceMarkCompletedLabel": "Oznacz jako Ukończone", - "firstTimeExperienceResetLabel": "Zresetuj", - "showPromptSuggestionsLabel": "Pokaż sugestie promptów przy tworzeniu nowego czatu", - "darkThemeLabel": "Ciemny", - "lightThemeLabel": "Jasny", - "systemThemeLabel": "Automatyczny", - "sepiaThemeLabel": "Sepia", - "unloadPreviousModelLabel": "Przy wyborze modelu do załadowania, najpierw wyładuj aktualnie załadowane", - "languageLabel": "Język", - "changeLanguageLabel": "Zmień język aplikacji", - "developerLabel": "Programista", - "showExperimentalFeaturesLabel": "Pokaż funkcje eksperymentalne", - "appFirstLoadLabel": "Pierwsze uruchomienie aplikacji", - "showDebugInfoBlocksInChatLabel": "Pokaż bloki informacji debugowania w czacie", - "autoLoadBundledLLMLabel": "Automatycznie ładuj dołączony model LLM przy starcie", - "showReleaseNotes": "Pokaż informacje o wydaniu", - "hideReleaseNotes": "Ukryj informacje o wydaniu", + "chat/aiNaming/label": "Nazewnictwo Chatu AI", + "chat/aiNaming/mode/label": "Nazwy czatów generowane przez AI", + "chat/aiNaming/mode/value/never": "Nigdy", + "chat/aiNaming/mode/value/never/subTitle": "Nie twórz nazw czatów generowanych przez AI", + "chat/aiNaming/mode/value/auto": "Automatycznie", + "chat/aiNaming/mode/value/auto/subTitle": "Decyduje, czy tworzyć nazwy na podstawie szybkości generacji", + "chat/aiNaming/mode/value/always": "Zawsze", + "chat/aiNaming/mode/value/always/subTitle": "Twórz nazwy czatów generowane przez AI niezależnie od szybkości generowania", + "chat/aiNaming/emoji": "Używaj emotikonów w nazwach czatów generowanych przez AI", + "chat/keyboardShortcuts/label": "Skróty klawiaturowe", + "chat/keyboardShortcuts/verbPrefix": "Użyj", + "chat/keyboardShortcuts/regenerate": "aby odtworzyć ostatnią wiadomość na czacie", + "chat/keyboardShortcuts/sendMessage": "aby wysłać wiadomość", - "backendDownloadNewUpdate": "Nowsze backendy są dostępne!", - "backendDownloadNewUpdateAction": "Przejdź do strony programistów", - "backendDownloadChannel.label": "Kanał Pobierania Pakietów Rozszerzeń LM Studio", - "backendDownloadChannel.value.stable": "Stabilny", - "backendDownloadChannel.value.beta": "Beta", - "backendDownloadChannel.value.latest": "Deweloperski", - "backendDownloadChannel.shortLabel": "Kanał pobierania środowiska uruchomieniowego", - "backendDownloadChannel.hint": "Wybierz kanał, z którego pobierać pakiety rozszerzeń LM Studio. \"{{stableName}}\" jest zalecanym kanałem dla większości użytkowników.", - "modelLoadingGuardrails.label": "Zabezpieczenia Ładowania Modelu", - "modelLoadingGuardrails.description": "Ładowanie modeli przekraczających limity zasobów systemowych może powodować niestabilność systemu lub zawieszenie. Zabezpieczenia zapobiegają przypadkowemu przeciążeniu. W razie potrzeby dostosuj te limity tutaj, ale pamiętaj, że ładowanie modeli bliskich limitowi systemu może zmniejszyć stabilność.", - "modelLoadingGuardrails.value.off": "WYŁĄCZONE (Niezalecane)", - "modelLoadingGuardrails.value.off/subTitle": "Brak zabezpieczeń przed przeciążeniem systemu", - "modelLoadingGuardrails.value.off/detail": "Szczegóły wyłączenia", - "modelLoadingGuardrails.value.low": "Rozluźnione", - "modelLoadingGuardrails.value.low/subTitle": "Łagodne zabezpieczenia przed przeciążeniem systemu", - "modelLoadingGuardrails.value.low/detail": "Szczegóły rozluźnienia", - "modelLoadingGuardrails.value.medium": "Zrównoważone", - "modelLoadingGuardrails.value.medium/subTitle": "Umiarkowane zabezpieczenia przed przeciążeniem systemu", - "modelLoadingGuardrails.value.medium/detail": "Szczegóły zrównoważenia", - "modelLoadingGuardrails.value.high": "Ścisłe", - "modelLoadingGuardrails.value.high/subTitle": "Silne zabezpieczenia przed przeciążeniem systemu", - "modelLoadingGuardrails.value.high/detail": "Szczegóły ścisłego zabezpieczenia", - "modelLoadingGuardrails.value.custom": "Niestandardowe", - "modelLoadingGuardrails.value.custom/subTitle": "Ustaw własny limit maksymalnego rozmiaru modelu, który może być załadowany", - "modelLoadingGuardrails.value.custom/detail": "Szczegóły niestandardowe", - "modelLoadingGuardrails.custom.label": "Limit Pamięci: ", - "modelLoadingGuardrails.custom.unitGB": "GB", - "modelLoadingGuardrails.custom.description": "Ustaw niestandardowy limit pamięci dla ładowania modelu. Modele nie zostaną załadowane, jeśli ich załadowanie przekroczyłoby ten limit.", - - "expandConfigsOnClick": "Rozwijaj konfiguracje po kliknięciu, a nie po najechaniu", - - "migrateChats": { - "label": "Migruj czaty sprzed wersji 0.3.0", - "action_one": "Migruj 1 Czat", - "action_other": "Migruj {{count}} Czatów", - "inProgress": "Migracja czatów...", - "hint": { - "primary": "Zmieniliśmy wewnętrzną strukturę danych dla czatów w wersji 0.3.0+ w celu obsługi funkcji takich jak wielowersyjne wiadomości czatu. Aby starsze czaty pojawiły się w aplikacji, muszą zostać zmigrowane do nowego formatu.", - "details": "Proces migracji NIE usunie Twoich starych czatów, ale raczej stworzy ich kopię w nowym formacie. ", - "footer": "Nadal możesz uzyskać dostęp do swoich starych czatów przez starsze wersje LM Studio. Obecnie obrazy nie będą automatycznie migrowane." - }, - "success_one": "Pomyślnie zmigrowano 1 czat", - "success_other": "Pomyślnie zmigrowano {{count}} czatów" + "onboarding/blockTitle": "Wskazówki dotyczące wdrażania", + "onboarding/dismissedHints": "Odrzucone wskazówki dotyczące wdrażania", + "onboarding/resetHintTooltip": "Kliknij, aby ponownie włączyć tę wskazówkę dotyczącą wdrażania", + "onboarding/resetAllHints": "Zresetuj wszystkie wskazówki dotyczące wdrażania", + "onboarding/noneDismissed": "Brak odrzuconych wskazówek, obecnie wszystkie wskazówki pomocnika wprowadzającego będą wyświetlane do następnego odrzucenia", + + "firstTimeExperienceLabel": "Pierwsze doświadczenie z czatem", + "firstTimeExperienceMarkCompletedLabel": "Zaznacz jako ukończone", + "firstTimeExperienceResetLabel": "Zresetuj", + "showPromptSuggestionsLabel": "Pokaż sugestie podczas tworzenia nowego czatu", + "darkThemeLabel": "Ciemny", + "lightThemeLabel": "Jasny", + "systemThemeLabel": "Automatyczny", + "sepiaThemeLabel": "Sepia", + "unloadPreviousModelLabel": "Wybierając model do zamontowania, najpierw odmontuj wszystkie aktualnie zamontowane modele", + "languageLabel": "Język aplikacji", + "changeLanguageLabel": "Wybierz język aplikacji (wciąż w fazie rozwoju)", + "developerLabel": "Deweloper", + "localServiceLabel": "Lokalna usługa LLM (niekierowana)", + "modelDefaultsLabel": "Domyślne ustawienia modelu", + "showExperimentalFeaturesLabel": "Pokaż funkcje eksperymentalne", + "appFirstLoadLabel": "Pierwsze ładowanie aplikacji", + "showDebugInfoBlocksInChatLabel": "Pokaż bloki informacji debugowania na czacie", + "autoLoadBundledLLMLabel": "Automatyczne montowanie dołączonego modelu LLM przy uruchomieniu", + "showReleaseNotes": "Pokaż informacje o wydaniu", + "hideReleaseNotes": "Ukryj informacje o wydaniu", + + "backendDownloadNewUpdate": "Dostępne są nowsze wersje back-endów!", + "backendDownloadNewUpdateAction": "Przejdź do strony dla programistów", + + "backendDownloadChannel.label": "Kanał pobierania pakietów rozszerzeń LM Studio", + "backendDownloadChannel.value.stable": "Stabilny", + "backendDownloadChannel.value.beta": "Beta", + "backendDownloadChannel.value.latest": "Dev", + "backendDownloadChannel.shortLabel": "Kanał pobierania środowiska wykonawczego", + "backendDownloadChannel.hint": "Wybierz kanał, z którego chcesz pobrać pakiety rozszerzeń LM Studio. \"{{stableName}}\" jest kanałem polecanym przez większość użytkowników.", + + "appUpdateChannel.label": "Kanał aktualizacji", + "appUpdateChannel.value.stable": "Stabilny", + "appUpdateChannel.value.beta": "Beta", + "appUpdateChannel.value.alpha": "Alpha", + "appUpdateChannel.shortLabel": "Kanał aktualizacji aplikacji", + "appUpdateChannel.hint": "Wybierz kanał, z którego chcesz otrzymywać aktualizacje aplikacji LM Studio. \"{{stableName}}\" jest kanałem polecanym przez większość użytkowników.", + + "modelLoadingGuardrails.label": "Montowanie modeli poza limitem zasobów", + "modelLoadingGuardrails.description": "Montowanie modeli poza limitem zasobów systemowych może spowodować niestabilność lub zawieszenie systemu. Zabezpieczenia zapobiegają przypadkowemu przeciążeniu. W razie potrzeby dostosuj te limity, ale pamiętaj, że montowanie modeli w pobliżu limitu zasobów systemowych może obniżyć stabilność.", + "modelLoadingGuardrails.value.off": "Wyłącz (Nie rekomendowane)", + "modelLoadingGuardrails.value.off/subTitle": "Brak środków ostrożności chroniących przed przeciążeniem systemu", + "modelLoadingGuardrails.value.off/detail": "Wyłącz szczegóły", + "modelLoadingGuardrails.value.low": "Zrównoważony", + "modelLoadingGuardrails.value.low/subTitle": "Łagodne środki ostrożności zapobiegające przeciążeniu systemu", + "modelLoadingGuardrails.value.low/detail": "Zrównoważone szczegóły", + "modelLoadingGuardrails.value.medium": "Zbalansowany", + "modelLoadingGuardrails.value.medium/subTitle": "Umiarkowane środki ostrożności zapobiegające przeciążeniu systemu", + "modelLoadingGuardrails.value.medium/detail": "Zbalansowane szczegóły", + "modelLoadingGuardrails.value.high": "Rygorystyczny", + "modelLoadingGuardrails.value.high/subTitle": "Silne środki ostrożności zapobiegające przeciążeniu systemu", + "modelLoadingGuardrails.value.high/detail": "Rygorystyczne szczegóły", + "modelLoadingGuardrails.value.custom": "Własny", + "modelLoadingGuardrails.value.custom/subTitle": "Ustaw własny limit maksymalnego rozmiaru modelu, który można załadować", + "modelLoadingGuardrails.value.custom/detail": "Własne szczegóły", + "modelLoadingGuardrails.custom.label": "Limit pamięci: ", + "modelLoadingGuardrails.custom.unitGB": "GB", + "modelLoadingGuardrails.custom.description": "Ustaw niestandardowy limit pamięci dla montowania modeli. Modele nie zostaną zamontowane, jeśli ich montowanie przekroczyłoby ten limit.", + "modelLoadingGuardrails.alwaysAllowLoadAnyway": "(Niezalecane) Zawsze zezwalaj na opcję „Zamontuj mimo to” bez przytrzymywania klawisza Alt/Option", + + "experimentalLoadPresets": "Włącz obsługę konfiguracji obciążenia modelu w ustawieniach wstępnych", + "experimentalLoadPresets.description": "Czy zezwolić na uwzględnianie konfiguracji obciążenia modelu w ustawieniach wstępnych? Ta funkcja jest eksperymentalna i chętnie poznamy Twoją opinię.", + + "unloadPreviousJITModelOnLoad": "Automatyczne usuwanie modeli JIT: zapewnia, że ​​maksymalnie 1 model jest zamontowany przez JIT w dowolnym momencie (usuwa poprzedni model)", + "autoDeleteExtensionPacks": "Automatyczne usuwanie ostatnio używanych pakietów rozszerzeń środowiska wykonawczego", + "autoUpdateExtensionPacks": "Automatyczna aktualizacja wybranych pakietów rozszerzeń środowiska wykonawczego", + "useHFProxy.label": "Użyj proxy Hugging Face w LM Studio", + "useHFProxy.hint": "Użyj Hugging Face Proxy w LM Studio do wyszukiwania i pobierania modeli. Może to pomóc użytkownikom, którzy mają problemy z bezpośrednim dostępem do Hugging Face.", + "separateReasoningContentInResponses": "W stosownych przypadkach oddziel `reasoning_content` i `content` w odpowiedziach API", + "separateReasoningContentInResponses/hint": "To ustawienie będzie działać tylko w przypadku modeli „rozumujących”, takich jak DeepSeek R1, jego warianty destylowane i inne modele generujące CoT w tagach `` i ``.", + + "promptWhenCommittingUnsavedChangesWithNewFields": "Ustawienia wstępne: Wyświetl okno dialogowe potwierdzenia podczas zatwierdzania nowych pól w ustawieniach wstępnych", + "promptWhenCommittingUnsavedChangesWithNewFields.description": "Jest to przydatne, jeśli chcesz zapobiec przypadkowemu dodawaniu nowych pól do ustawień wstępnych", + + "enableLocalService": "Włącz lokalną usługę LLM", + "enableLocalService.subtitle": "Korzystaj z serwera LLM LM Studio bez konieczności utrzymywania otwartej aplikacji LM Studio", + "enableLocalService.description": "Po włączeniu usługa LM Studio Local LLM Service zostanie uruchomiona podczas uruchamiania systemu. Zamknięcie LM Studio spowoduje również pozostawienie usługi Local LLM Service w zasobniku systemowym.", + + "expandConfigsOnClick": "Rozwijaj konfiguracje po kliknięciu, a nie po najechaniu kursorem", + + "migrateChats": { + "label": "Migracja czatów przed wersją 0.3.0", + "hasBetterLabel": "Ponowna migracja czatów przed wersją 0.3.0", + "action_one": "Migracja 1 czatu", + "action_other": "Migracja {{count}} czatów", + "inProgress": "Migracja czatów...", + "hint": { + "primary": "Zmodernizowaliśmy wewnętrzną strukturę danych dla czatów w wersji 0.3.0 i nowszych, aby obsługiwać funkcje takie jak wiadomości czatu w wielu wersjach. Aby starsze czaty wyświetlały się w aplikacji, należy je przenieść do nowego formatu.", + "details": "Proces migracji NIE usunie starych czatów, lecz utworzy ich kopię w nowym formacie.", + "footer": "Nadal możesz uzyskać dostęp do starych czatów za pośrednictwem starszych wersji LM Studio. Obecnie obrazy nie będą migrowane automatycznie." + }, + "hasBetterHint": { + "primary": "Ulepszyliśmy migrator czatów, ponieważ przeniosłeś swoje stare czaty. Czy chcesz go ponownie uruchomić?", + "details": "Proces migracji utworzy nowy folder, w którym będą przechowywane nowo przeniesione czaty. Twoje stare czaty pozostaną nienaruszone.", + "footer": "Nadal możesz uzyskać dostęp do starych czatów za pośrednictwem starszych wersji LM Studio. Obecnie obrazy nie będą migrowane automatycznie." + }, + "success": "Pomyślnie przeniesiono czaty!", + "success_one": "Pomyślnie przeniesiono 1 czat!", + "success_other": "Pomyślnie przeniesiono {{count}} chatów", + "showInstructionsButton": "Pokaż instrukcje", + "footerCardText": "Aby móc korzystać z czatów w tej wersji, należy je przenieść z poprzednich wersji LM Studio.", + "hasBetterFooterCardText": "Ulepszyliśmy migrator czatów, ponieważ przeniosłeś swoje stare czaty. Możesz ponownie uruchomić proces migracji. (Utworzymy nowy folder, w którym będą przechowywane nowo przeniesione czaty).", + "dismissConfirm": "Odrzuć", + "dismissConfirmDescription": "Migrację czatu możesz zawsze wykonać w Ustawieniach" + }, + "toolConfirmation": { + "label": "Potwierdzenie wywołania narzędzia", + "neverAsk": { + "label": "Nigdy nie proś o potwierdzenia przed uruchomieniem narzędzia (NIE ZALECANE)", + "hint": "Wyłącz potwierdzenia przed uruchomieniem narzędzia. Nie jest to zalecane.", + "warnTitle": "Czy jesteś pewny?", + "warnDescription": "Wyłączanie potwierdzeń wywołań narzędzi jest niebezpieczne. Jeśli któraś z Twoich wtyczek zawiera narzędzie, które może wykonywać destrukcyjne działania (takie jak uruchamianie polecenia, usuwanie plików, nadpisywanie plików, przesyłanie plików itp.), model będzie mógł to zrobić bez żadnego potwierdzenia. Zawsze możesz wyłączyć potwierdzenia dla poszczególnych narzędzi, a nawet wtyczek. Włączanie tej opcji NIE jest zalecane. Zachowaj ostrożność.", + "warnButton": "Rozumiem ryzyko" } - } \ No newline at end of file + }, + + "defaultContextLength": { + "label": "Domyślna długość kontekstu", + "maxTitle": "Maksymalna dla modelu", + "customTitle": "Własna wartość", + "maxSubtitle": "Użyj maksymalnej długości kontekstu obsługiwanej przez każdy model.", + "customSubtitle": "Ustaw domyślną długość kontekstu do ładowania nowych modeli. Jeśli obsługiwana maksymalna długość kontekstu dla danego modelu jest mniejsza, zostanie użyta ta wartość.", + "invalidNaNError": "Nieprawidłowa wartość długości kontekstu. Użyj {{value}}", + "invalidRangeError": "Nieprawidłowa wartość długości kontekstu. Powinna mieścić się w zakresie od 1 do 2^30. Używanie {{value}}", + "largeContextWarning": "Im większa długość kontekstu, tym więcej pamięci zajmie model. Jeśli nie masz pewności, nie zmieniaj ustawień domyślnych." + }, + "jitTTL": { + "subtitle": "Modele zamontowane metodą JIT zostaną automatycznie odmontowane po upływie określonego czasu bezczynności." + } +} diff --git a/pl/shared.json b/pl/shared.json index 404cabff..768121cb 100644 --- a/pl/shared.json +++ b/pl/shared.json @@ -1,3 +1,305 @@ { - "copyLmStudioLinkButton/toolTip": "Kopiuj link do pobrania modelu" -} \ No newline at end of file + "copyLmStudioLinkButton/toolTip": "Kopiuj link do pobrania modelu", + + "filter.noMatches": "Brak dopasowań", + "longRunningTask": { + "unbundlingDependencies": { + "badge": "Wyodrębnianie zasobów" + }, + "performingBackendHardwareSurvey": { + "badge": "Sprawdzanie zgodności środowiska wykonawczego" + }, + "indexingRuntimes": { + "badge": "Indeksowanie środowisk wykonawczych" + }, + "indexingModels": { + "badge": "Indeksowanie modeli" + }, + "authenticating": { + "badge": "Uwierzytelnianie" + }, + "autoUpdatingExtensionPack": { + "badge": "Aktualizowanie pakietu rozszerzeń ({{name}} v{{version}})" + } + }, + "auth": { + "prompt": "Zaloduj się w LM Studio Hub", + "authError": "Problem z uwierzytelnieniem", + "noAccount": "Nie masz konta?", + "signUp": "Zajerestruj się", + "havingTrouble": "Masz problem?", + "retry": "Ponów" + }, + "artifacts": { + "fetchError": "Nie udało się pobrać artefaktów", + "organizationVisible": "Organizacja widoczna" + }, + + "incompatible": "Niekompatybilny", + "compatible": "Kompatybilny", + "public": "Publiczny", + "private": "Prywatny", + "yes": "Tak", + "no": "Nie", + "go": "Przejdź", + + "proceedWithEllipsis": "Przetwarzanie...", + "proceed": "Przetwarzanie", + "inProgress": "W toku...", + "failed": "Błąd", + "pending": "Oczekiwanie", + "doneWithExclamation": "Gotowe!", + "done": "Gotowe", + "beta": "Beta", + + "complete": { + "completeWithEllipsis": "Zakończ...", + "complete": "Zakończ", + "completingWithEllipsis": "Finalizowanie...", + "completing": "Finalizowanie", + "completedWithExclamation": "Zakończono!", + "completed": "Zakończono" + }, + + "cancel": { + "cancelWithEllipsis": "Anuluj...", + "cancel": "Anuluj", + "cancelingWithEllipsis": "Anulowanie...", + "canceling": "Anulowanie", + "canceled": "Anulowano" + }, + + "next": { + "nextWithEllipsis": "Dalej...", + "next": "Dalej" + }, + + "back": { + "backWithEllipsis": "Wstecz...", + "back": "Wstecz" + }, + + "close": { + "closeWithEllipsis": "Zamknij...", + "close": "Zamknij", + "closingWithEllipsis": "Zamykanie...", + "closing": "Zamykanie", + "closedWithExclamation": "Zamknięto!", + "closed": "Zamknięto" + }, + + "delete": { + "deleteWithEllipsis": "Usuń...", + "delete": "Usuń", + "deletingWithEllipsis": "Usuwanie...", + "deleting": "Usuwanie", + "deletedWithExclamation": "Usunięto!", + "deleted": "Usunięto" + }, + + "retry": { + "retryWithEllipsis": "Ponów...", + "retry": "Ponów", + "retryingWithEllipsis": "Ponawianie...", + "retrying": "Ponawianie" + }, + + "refresh": { + "refreshWithEllipsis": "Odśwież...", + "refresh": "Odśwież", + "refreshingWithEllipsis": "Odświeżanie...", + "refreshing": "Odświeżanie", + "refreshedWithExclamation": "Odświeżono!", + "refreshed": "Odświeżono" + }, + + "confirm": { + "confirm": "Zatwierdź", + "confirmingWithEllipsis": "Zatwierdzanie...", + "confirming": "Zatwierdzanie", + "confirmedWithExclamation": "Zatwierdzono!", + "confirmed": "Zatwierdzono" + }, + + "copy": { + "copyWithEllipsis": "Kopiuj...", + "copy": "Kopiuj", + "copyingWithEllipsis": "Kopiowanie...", + "copying": "Kopiowanie", + "copiedWithExclamation": "Skopiowano!", + "copied": "Skopiowano" + }, + + "edit": { + "editWithEllipsis": "Edytuj...", + "edit": "Edytuj", + "editingWithEllipsis": "Edytowanie...", + "editing": "Edytowanie", + "editedWithExclamation": "Edytowano!", + "edited": "Edytowano" + }, + + "load": { + "loadWithEllipsis": "Załaduj...", + "load": "Załaduj", + "loadingWithEllipsis": "Ładowanie...", + "loading": "Ładowanie", + "loadedWithExclamation": "Załadowano!", + "loaded": "Załadowano" + }, + + "save": { + "saveWithEllipsis": "Zapisz...", + "save": "Zapisz", + "savingWithEllipsis": "Zapisywanie...", + "saving": "Zapisywanie", + "savedWithExclamation": "Zapisano!", + "saved": "Zapisano" + }, + + "saveAs": { + "saveAsWithEllipsis": "Zapisz jako...", + "saveAs": "Zapisz jako" + }, + + "saveAsNew": { + "saveAsNewWithEllipsis": "Zapisz jako Nowy...", + "saveAsNew": "Zapisz jako Nowy" + }, + + "search": { + "searchWithEllipsis": "Wyszukaj...", + "search": "Wyszukaj", + "searchingWithEllipsis": "Wyszukiwanie...", + "searching": "Wyszukiwanie" + }, + + "update": { + "updateWithEllipsis": "Aktualizuj...", + "update": "Aktualizuj", + "updatingWithEllipsis": "Aktualizowanie...", + "updating": "Aktualizowanie", + "updatedWithExclamation": "Zaktualizowano!", + "updated": "Zaktualizowano" + }, + + "create": { + "createWithEllipsis": "Utwórz...", + "create": "Utwórz", + "creatingWithEllipsis": "Tworzenie", + "creating": "Tworzenie", + "createdWithExclamation": "Utworzono!", + "created": "Utworzono" + }, + + "reset": { + "resetWithEllipsis": "Resetuj...", + "reset": "Resetuj", + "resettingWithEllipsis": "Resetowanie...", + "resetting": "Resetowanie" + }, + + "pause": { + "pause": "Zatrzymaj", + "pausingWithEllipsis": "Zatrzymywanie...", + "pausing": "Zatrzymywanie", + "paused": "Zatrzymano" + }, + + "download": { + "download": "Pobierz", + "downloadingWithEllipsis": "Pobieranie...", + "downloading": "Pobieranie", + "downloadedWithExclamation": "Pobrano!", + "downloaded": "Pobrano" + }, + + "upload": { + "uploadWithEllipsis": "Prześlij...", + "upload": "Prześlij", + "uploadingWithEllipsis": "Przesyłanie...", + "uploading": "Przesyłanie", + "uploadedWithExclamation": "Przesłano!", + "uploaded": "Przesłano" + }, + + "remove": { + "removeWithEllipsis": "Usuń...", + "remove": "Usuń", + "removingWithEllipsis": "Usuwanie...", + "removing": "Usuwanie", + "removedWithExclamation": "Usunięto!", + "removed": "Usunięto" + }, + + "uninstall": { + "uninstallWithEllipsis": "Odinstaluj...", + "uninstall": "Odinstaluj", + "uninstallingWithEllipsis": "Odinstalowywanie...", + "uninstalling": "Odinstalowywanie", + "uninstalledWithExclamation": "Odinstalowano!", + "uninstalled": "Odinstalowano" + }, + + "resume": { + "resumeWithEllipsis": "Wznów...", + "resume": "Wznów", + "resumingWithEllipsis": "Wznawianie...", + "resuming": "Wznawianie" + }, + + "start": { + "startWithEllipsis": "Rozpocznij...", + "start": "Rozpocznij", + "startingWithEllipsis": "Rozpoczynanie...", + "starting": "Rozpoczynanie", + "started": "Rozpoczęto" + }, + + "stop": { + "stopWithEllipsis": "Zatrzymaj...", + "stop": "Zatrzymaj", + "stoppingWithEllipsis": "Zatrzymywanie...", + "stopping": "Zatrzymywanie", + "stoppedWithExclamation": "Zatrzymano!", + "stopped": "Zatrzymano" + }, + + "import": { + "importWithEllipsis": "Importuj...", + "import": "Importuj", + "importingWithEllipsis": "Importowanie...", + "importing": "Importowanie", + "importedWithExclamation": "Zaimportowano!", + "imported": "Zaimportowano" + }, + + "letsGo": { + "letsGo": "Zaczynajmy", + "letsGoWithEllipsis": "Zaczynajmy...", + "letsGoWithExclamation": "Zaczynajmy!" + }, + + "run": { + "runWithEllipsis": "Uruchom...", + "run": "Uruchom", + "runningWithEllipsis": "Uruchamianie...", + "running": "Uruchamianie" + }, + + "configure": { + "configureWithEllipsis": "Konfiguruj...", + "configure": "Konfiguruj", + "configuringWithEllipsis": "Konfigurowanie...", + "configured": "Skonfigurowano" + }, + + "publish": { + "publishWithEllipsis": "Opublikuj...", + "publish": "Opublikuj", + "publishingWithEllipsis": "Publikowanie...", + "publishing": "Publikowanie", + "publishedWithExclamation": "Opublikowano!", + "published": "Opublikowano" + } +} diff --git a/pl/sidebar.json b/pl/sidebar.json index d82047fd..6a9006a6 100644 --- a/pl/sidebar.json +++ b/pl/sidebar.json @@ -1,8 +1,9 @@ { -"chat": "Czat", - "discover": "Odkrywaj", - "myModels": "Moje Modele", - "developer": "Programista", + "chat": "Czat", + "discover": "Odkryj", + "myModels": "Moje modele", + "developer": "Deweloper", + "runtimes": "Czas działania", "settings": "Ustawienia", - "download": "Pobieranie" + "download": "Pobrane" }