diff --git a/da/chat.json b/da/chat.json new file mode 100644 index 00000000..623d6684 --- /dev/null +++ b/da/chat.json @@ -0,0 +1,47 @@ +{ + "modelLoaderPlaceholder": "Vælg en model", + "systemPromptPlaceholder": "Angiv systemprompt", + "userRoleText": "Bruger", + "assistantRoleText": "Assistent", + "addMessageButtonText": "Tilføj", + "addMessageButtonText/toolTip": "Tilføj en besked til konteksten uden at påvirke forudsigelsen", + "sendMessageButtonText": "Send", + "sendMessageButtonText/toolTip": "Send din prompt og samtalehistorik til modellen til behandling", + "ejectButtonText": "Skub ud", + "unloadTooltip": "Skub modellen ud af hukommelsen", + "cancelButtonText": "Annuller", + "loadButtonText": "Indlæs", + "markdownSelectOption": "Markdown", + "rawSelectOption": "Ren tekst", + "advancedSegmentText": "Avanceret", + "chatSegmentText": "Chat", + "chatSidebarTitle": "Chats", + "newChatTooltip": "Ny chat", + "viewModeLabel": "Chatvisning", + "noChatSelected": "Ingen chat valgt", + "chatViewOptions": "Indstillinger for chatvisning", + "uiControls/title": "Visningsindstillinger", + "noChatSelectedPlaceholder": "Vælg en chat", + "unnamedChat": "Unavngiven chat", + "actions/sendMessage/error": "Kunne ikke sende besked", + "actions/loadModel/error": "🥲 Kunne ikke indlæse modellen", + "actions/addFile": "[Eksperimentel] Vedhæft en fil til denne besked\n(.pdf, ren tekst eller .docx)", + "actions/changeRole": "Skift mellem bruger- og assistentroller.\n\nDet er nyttigt, hvis du vil styre samtalen i en bestemt retning.\n\nKan bruges til at opsætte scenarier med 'few-shot learning' eller 'in-context learning'.", + "actions/addImage": "Tilføj billede", + "actions/deleteMessage": "Slet besked", + "actions/deleteMessage/confirmation": "Er du sikker på, at du vil slette denne besked?", + "actions/copyMessage": "Kopiér besked", + "actions/editMessage": "Redigér besked", + "actions/regenerateMessage": "Generér besked igen", + "actions/loadLastModel": "Indlæs sidst brugte model", + "actions/loadLastModel/tooltip": "Klik for at indlæse den model, der sidst blev brugt i denne chat:\n\n{{lastModel}}", + "actions/loadLastModel/error": "Kunne ikke indlæse sidst brugte model.", + "actions/continueCurrentModel": "Brug nuværende model", + "actions/continueCurrentModel/tooltip": "Nuværende model: {{currentModel}}", + "actions/changeToLastUsedModel": "Indlæs {{lastModel}}", + "actions/changeToLastUsedModel/error": "Kunne ikke skifte til sidst brugte model.", + "actions/changeToLastUsedModel/tooltip": "Du brugte en anden model, sidst du sendte en besked i denne chat. Klik for at skubbe den valgte model ud ({{currentModel}}) og indlæse den model, der sidst blev brugt i denne chat:\n\n{{lastModel}}", + "actions/switchToLastUsedModel": "Skift til {{lastModel}}", + "actions/switchToLastUsedModel/tooltip": "Klik for at skifte til den model, der sidst blev brugt i denne chat:\n\n{{lastModel}}", + "actions/loadModel": "Indlæs en model" +} \ No newline at end of file diff --git a/da/config.json b/da/config.json new file mode 100644 index 00000000..93c21e54 --- /dev/null +++ b/da/config.json @@ -0,0 +1,607 @@ +{ + "noInstanceSelected": "Ingen modelinstans valgt", + "resetToDefault": "Nulstil", + "showAdvancedSettings": "Vis avancerede indstillinger", + "showAll": "Alle", + "basicSettings": "Grundlæggende", + "configSubtitle": "Indlæs eller gem presets, og eksperimentér med tilsidesættelser af modelparametre", + "inferenceParameters/title": "Prediktionsparametre", + "inferenceParameters/info": "Eksperimentér med parametre, der påvirker genereringen.", + "generalParameters/title": "Generelt", + "samplingParameters/title": "Sampling", + "basicTab": "Grundlæggende", + "advancedTab": "Avanceret", + "advancedTab/title": "🧪 Avanceret konfiguration", + "advancedTab/expandAll": "Udvid alle", + "advancedTab/overridesTitle": "Konfigurationstilsidesættelser", + "advancedTab/noConfigsText": "Du har ingen ikke-gemte ændringer – redigér værdierne ovenfor for at se tilsidesættelser her.", + "loadInstanceFirst": "Indlæs en model for at se konfigurerbare parametre", + "noListedConfigs": "Ingen konfigurerbare parametre", + "generationParameters/info": "Eksperimentér med grundlæggende parametre, der påvirker tekstgenerering.", + "loadParameters/title": "Indlæsningsparametre", + "loadParameters/description": "Indstillinger, der styrer, hvordan modellen initialiseres og indlæses i hukommelsen.", + "loadParameters/reload": "Genindlæs for at anvende ændringer", + "loadParameters/reload/error": "Kunne ikke genindlæse modellen", + "discardChanges": "Forkast ændringer", + "loadModelToSeeOptions": "Indlæs en model for at se muligheder", + "schematicsError.title": "Konfigurationsskemaet indeholder fejl i følgende felter:", + "manifestSections": { + "structuredOutput/title": "Struktureret output", + "speculativeDecoding/title": "Spekulativ afkodning", + "sampling/title": "Sampling", + "settings/title": "Indstillinger", + "toolUse/title": "Værktøjsbrug", + "promptTemplate/title": "Prompt-skabelon", + "customFields/title": "Brugerdefinerede felter" + }, + "llm.prediction.systemPrompt/title": "Systemprompt", + "llm.prediction.systemPrompt/description": "Brug dette felt til at give modellen baggrundsinstruktioner, f.eks. et sæt regler, begrænsninger eller generelle krav.", + "llm.prediction.systemPrompt/subTitle": "Retningslinjer for AI'en", + "llm.prediction.systemPrompt/openEditor": "Editor", + "llm.prediction.systemPrompt/closeEditor": "Luk editor", + "llm.prediction.systemPrompt/openedEditor": "Åbnet i editor...", + "llm.prediction.systemPrompt/edit": "Redigér systemprompt...", + "llm.prediction.systemPrompt/addInstructionsWithMore": "Tilføj instruktioner...", + "llm.prediction.systemPrompt/addInstructions": "Tilføj instruktioner", + "llm.prediction.temperature/title": "Temperatur", + "llm.prediction.temperature/subTitle": "Hvor meget tilfældighed der skal tilføjes. 0 giver samme resultat hver gang, mens højere værdier øger kreativitet og variation", + "llm.prediction.temperature/info": "Fra llama.cpp-hjælpedokumentationen: \"Standardværdien er <{{dynamicValue}}>, hvilket giver en balance mellem tilfældighed og determinisme. I den yderste ende vil en temperatur på 0 altid vælge det mest sandsynlige næste token, hvilket fører til identisk output ved hver kørsel\"", + "llm.prediction.llama.sampling/title": "Sampling", + "llm.prediction.topKSampling/title": "Top-K-sampling", + "llm.prediction.topKSampling/subTitle": "Begrænser næste token til et af de top-k mest sandsynlige tokens. Virker på en lignende måde som temperatur", + "llm.prediction.topKSampling/info": "Fra llama.cpp-hjælpedokumentationen:\n\nTop-k-sampling er en tekstgenereringsmetode, der kun vælger det næste token blandt de k mest sandsynlige tokens, som modellen har forudsagt.\n\nDet hjælper med at reducere risikoen for at generere tokens med lav sandsynlighed eller tokens, der ikke giver mening, men det kan også begrænse variationen i outputtet.\n\nEn højere værdi for top-k (f.eks. 100) vil tage flere tokens i betragtning og føre til mere varieret tekst, mens en lavere værdi (f.eks. 10) vil fokusere på de mest sandsynlige tokens og generere mere konservativ tekst.\n\n• Standardværdien er <{{dynamicValue}}>", + "llm.prediction.llama.cpuThreads/title": "CPU-tråde", + "llm.prediction.llama.cpuThreads/subTitle": "Antal CPU-tråde, der skal bruges under inferens", + "llm.prediction.llama.cpuThreads/info": "Antallet af tråde, der skal bruges under beregning. Flere tråde giver ikke altid bedre ydeevne. Standardværdien er <{{dynamicValue}}>.", + "llm.prediction.maxPredictedTokens/title": "Begræns svarlængde", + "llm.prediction.maxPredictedTokens/subTitle": "Sæt eventuelt en øvre grænse for AI'ens svarlængde", + "llm.prediction.maxPredictedTokens/info": "Styr den maksimale længde på chatbotens svar. Slå til for at sætte en grænse for den maksimale svarlængde, eller slå fra for at lade chatbotten selv afgøre, hvornår den skal stoppe.", + "llm.prediction.maxPredictedTokens/inputLabel": "Maksimal svarlængde (tokens)", + "llm.prediction.maxPredictedTokens/wordEstimate": "Omtrent {{maxWords}} ord", + "llm.prediction.repeatPenalty/title": "Gentagelsesstraf", + "llm.prediction.repeatPenalty/subTitle": "Hvor meget gentagelse af det samme token skal modvirkes", + "llm.prediction.repeatPenalty/info": "Fra llama.cpp-hjælpedokumentationen: \"Hjælper med at forhindre, at modellen genererer gentagende eller monoton tekst.\n\nEn højere værdi (f.eks. 1,5) vil straffe gentagelser hårdere, mens en lavere værdi (f.eks. 0,9) vil være mere lempelig.\" • Standardværdien er <{{dynamicValue}}>", + "llm.prediction.minPSampling/title": "Min-P-sampling", + "llm.prediction.minPSampling/subTitle": "Mindste grundsandsynlighed for, at et token kan vælges til output", + "llm.prediction.minPSampling/info": "Fra llama.cpp-hjælpedokumentationen:\n\nDen minimale sandsynlighed for, at et token tages i betragtning, relativt til sandsynligheden for det mest sandsynlige token. Skal være i intervallet [0, 1].\n\n• Standardværdien er <{{dynamicValue}}>", + "llm.prediction.topPSampling/title": "Top-P-sampling", + "llm.prediction.topPSampling/subTitle": "Mindste kumulative sandsynlighed for de mulige næste tokens. Virker på en lignende måde som temperatur", + "llm.prediction.topPSampling/info": "Fra llama.cpp-hjælpedokumentationen:\n\nTop-p-sampling, også kendt som nucleus-sampling, er en anden tekstgenereringsmetode, der vælger det næste token fra en delmængde af tokens, som tilsammen har en kumulativ sandsynlighed på mindst p.\n\nDenne metode giver en balance mellem variation og kvalitet ved at tage højde for både sandsynlighederne for tokens og antallet af tokens, der skal samples fra.\n\nEn højere værdi for top-p (f.eks. 0,95) vil føre til mere varieret tekst, mens en lavere værdi (f.eks. 0,5) vil generere mere fokuseret og konservativ tekst. Skal være i intervallet (0, 1].\n\n• Standardværdien er <{{dynamicValue}}>", + "llm.prediction.stopStrings/title": "Stopstrenge", + "llm.prediction.stopStrings/subTitle": "Strenge, der skal få modellen til at stoppe med at generere flere tokens", + "llm.prediction.stopStrings/info": "Specifikke strenge, som vil få modellen til at stoppe med at generere flere tokens, når de mødes", + "llm.prediction.stopStrings/placeholder": "Indtast en streng, og tryk på ⏎", + "llm.prediction.contextOverflowPolicy/title": "Kontekstoverløb", + "llm.prediction.contextOverflowPolicy/subTitle": "Hvordan modellen skal opføre sig, når samtalen bliver for stor til, at den kan håndtere den", + "llm.prediction.contextOverflowPolicy/info": "Vælg, hvad der skal ske, når samtalen overstiger størrelsen på modellens arbejdshukommelse ('kontekst')", + "llm.prediction.llama.frequencyPenalty/title": "Frekvensstraf", + "llm.prediction.llama.presencePenalty/title": "Tilstedeværelsesstraf", + "llm.prediction.llama.tailFreeSampling/title": "Tail-Free-sampling", + "llm.prediction.llama.locallyTypicalSampling/title": "Lokalt typisk sampling", + "llm.prediction.llama.xtcProbability/title": "XTC-sampling-sandsynlighed", + "llm.prediction.llama.xtcProbability/subTitle": "XTC-sampleren (Exclude Top Choices) aktiveres kun med denne sandsynlighed pr. genereret token. XTC-sampling kan øge kreativiteten og reducere klichéer", + "llm.prediction.llama.xtcProbability/info": "XTC-sampling (Exclude Top Choices) aktiveres kun med denne sandsynlighed pr. genereret token. XTC-sampling øger ofte kreativiteten og reducerer klichéer", + "llm.prediction.llama.xtcThreshold/title": "XTC-sampling-tærskel", + "llm.prediction.llama.xtcThreshold/subTitle": "XTC-tærskel (Exclude Top Choices). Med en sandsynlighed på `xtc-probability` søges der efter tokens med sandsynligheder mellem `xtc-threshold` og 0,5, hvorefter alle sådanne tokens fjernes bortset fra det mindst sandsynlige", + "llm.prediction.llama.xtcThreshold/info": "XTC-tærskel (Exclude Top Choices). Med en sandsynlighed på `xtc-probability` søges der efter tokens med sandsynligheder mellem `xtc-threshold` og 0,5, hvorefter alle sådanne tokens fjernes bortset fra det mindst sandsynlige", + "llm.prediction.mlx.topKSampling/title": "Top-K-sampling", + "llm.prediction.mlx.topKSampling/subTitle": "Begrænser næste token til et af de top-k mest sandsynlige tokens. Virker på en lignende måde som temperatur", + "llm.prediction.mlx.topKSampling/info": "Begrænser næste token til et af de top-k mest sandsynlige tokens. Virker på en lignende måde som temperatur", + "llm.prediction.onnx.topKSampling/title": "Top-K-sampling", + "llm.prediction.onnx.topKSampling/subTitle": "Begrænser næste token til et af de top-k mest sandsynlige tokens. Virker på en lignende måde som temperatur", + "llm.prediction.onnx.topKSampling/info": "Fra ONNX-dokumentationen:\n\nAntal ordforrådstokens med højest sandsynlighed, der bevares til top-k-filtrering\n\n• Dette filter er som standard slået fra", + "llm.prediction.onnx.repeatPenalty/title": "Gentagelsesstraf", + "llm.prediction.onnx.repeatPenalty/subTitle": "Hvor meget gentagelse af det samme token skal modvirkes", + "llm.prediction.onnx.repeatPenalty/info": "En højere værdi modvirker, at modellen gentager sig selv", + "llm.prediction.onnx.topPSampling/title": "Top-P-sampling", + "llm.prediction.onnx.topPSampling/subTitle": "Mindste kumulative sandsynlighed for de mulige næste tokens. Virker på en lignende måde som temperatur", + "llm.prediction.onnx.topPSampling/info": "Fra ONNX-dokumentationen:\n\nKun de mest sandsynlige tokens, hvis samlede sandsynlighed når op på TopP eller mere, bevares til generering\n\n• Dette filter er som standard slået fra", + "llm.prediction.seed/title": "Seed", + "llm.prediction.structured/title": "Struktureret output", + "llm.prediction.structured/info": "Struktureret output", + "llm.prediction.structured/description": "Avanceret: Du kan angive et [JSON-skema](https://json-schema.org/learn/miscellaneous-examples) for at håndhæve et bestemt outputformat fra modellen. Læs [dokumentationen](https://lmstudio.ai/docs/advanced/structured-output) for at lære mere", + "llm.prediction.tools/title": "Værktøjsbrug", + "llm.prediction.tools/description": "Avanceret: Du kan angive en JSON-kompatibel liste over værktøjer, som modellen kan anmode om at kalde. Læs [dokumentationen](https://lmstudio.ai/docs/advanced/tool-use) for at lære mere", + "llm.prediction.tools/serverPageDescriptionAddon": "Send dette videre i request-body som `tools`, når du bruger server-API'et", + "llm.prediction.promptTemplate/title": "Prompt-skabelon", + "llm.prediction.promptTemplate/subTitle": "Formatet, som beskeder i chatten sendes til modellen i. Ændringer her kan give uventet adfærd – sørg for, at du ved, hvad du gør.", + "llm.prediction.speculativeDecoding.numDraftTokensExact/title": "Antal draft-tokens, der skal genereres", + "llm.prediction.speculativeDecoding.numDraftTokensExact/subTitle": "Antallet af tokens, der skal genereres med draft-modellen pr. token i hovedmodellen. Find balancen mellem beregning og gevinst", + "llm.prediction.speculativeDecoding.minContinueDraftingProbability/title": "Sandsynlighedsgrænse for drafting", + "llm.prediction.speculativeDecoding.minContinueDraftingProbability/subTitle": "Fortsæt med at draft'e, indtil et tokens sandsynlighed falder under denne tærskel. Højere værdier betyder generelt lavere risiko, lavere gevinst", + "llm.prediction.speculativeDecoding.minDraftLengthToConsider/title": "Min. draft-størrelse", + "llm.prediction.speculativeDecoding.minDraftLengthToConsider/subTitle": "Drafts, der er mindre end dette, ignoreres af hovedmodellen. Højere værdier betyder generelt lavere risiko, lavere gevinst", + "llm.prediction.speculativeDecoding.maxTokensToDraft/title": "Maks. draft-størrelse", + "llm.prediction.speculativeDecoding.maxTokensToDraft/subTitle": "Maksimalt antal tokens tilladt i et draft. Loft, hvis alle token-sandsynligheder er over tærsklen. Lavere værdier betyder generelt lavere risiko, lavere gevinst", + "llm.prediction.speculativeDecoding.draftModel/title": "Draft-model", + "llm.prediction.reasoning.parsing/title": "Parsing af ræsonneringssektion", + "llm.prediction.reasoning.parsing/subTitle": "Hvordan ræsonneringssektioner i modellens output skal parses", + "llm.load.mainGpu/title": "Primær GPU", + "llm.load.mainGpu/subTitle": "Den GPU, der skal prioriteres til modelberegning", + "llm.load.mainGpu/placeholder": "Vælg primær GPU...", + "llm.load.splitStrategy/title": "Opdelingsstrategi", + "llm.load.splitStrategy/subTitle": "Hvordan modelberegning skal fordeles på tværs af GPU'er", + "llm.load.splitStrategy/placeholder": "Vælg opdelingsstrategi...", + "llm.load.offloadKVCacheToGpu/title": "Aflast KV-cache til GPU-hukommelse", + "llm.load.offloadKVCacheToGpu/subTitle": "Aflast KV-cachen til GPU-hukommelsen. Forbedrer ydeevnen, men kræver mere GPU-hukommelse", + "llm.load.numParallelSessions/title": "Maks. samtidige forudsigelser", + "llm.load.numParallelSessions/subTitle": "Maksimalt antal forudsigelser modellen kan køre samtidig. Hastigheden for hver enkelt forudsigelse kan falde ved samtidighed, men hver forudsigelse starter hurtigere, og den samlede gennemstrømning kan blive højere", + "llm.load.useUnifiedKvCache/title": "Unified KV-cache", + "llm.load.useUnifiedKvCache/subTitle": "Styrer, om samtidige forudsigelser deler en enkelt KV-cache for at spare hukommelse. Hvis den deaktiveres, kan hver forudsigelse bruge hele kontekstlængden, men det koster mere hukommelse", + "load.gpuStrictVramCap/title": "Begræns modelaflastning til dedikeret GPU-hukommelse", + "load.gpuStrictVramCap.customSubTitleOff": "FRA: Tillad, at modelvægte aflæsses til delt hukommelse, hvis den dedikerede GPU-hukommelse er fuld", + "load.gpuStrictVramCap.customSubTitleOn": "TIL: Systemet begrænser aflastning af modelvægte til kun dedikeret GPU-hukommelse og RAM. Konteksten kan stadig bruge delt hukommelse", + "load.gpuStrictVramCap.customGpuOffloadWarning": "Modelaflastning er begrænset til dedikeret GPU-hukommelse. Det faktiske antal aflæssede lag kan variere", + "load.allGpusDisabledWarning": "Alle GPU'er er i øjeblikket deaktiveret. Aktivér mindst én for at kunne aflaste", + "llm.load.contextLength/title": "Kontekstlængde", + "llm.load.contextLength/subTitle": "Det maksimale antal tokens modellen kan tage højde for i én prompt. Se mulighederne under \"Kontekstoverløb\" i \"Inferensparametre\" for flere måder at håndtere dette på", + "llm.load.contextLength/info": "Angiver det maksimale antal tokens modellen kan tage i betragtning på én gang, hvilket påvirker hvor meget kontekst den bevarer under behandlingen", + "llm.load.contextLength/warning": "En høj værdi for kontekstlængde kan have stor påvirkning på hukommelsesforbruget", + "llm.load.seed/title": "Seed", + "llm.load.seed/subTitle": "Seed til den tilfældighedsgenerator, der bruges ved tekstgenerering. -1 betyder tilfældig", + "llm.load.seed/info": "Random Seed: Angiver seed-værdien for den tilfældighedsgenerator, der bruges, så resultater kan genskabes", + "llm.load.numCpuExpertLayersRatio/title": "Antal lag, hvor MoE-vægte skal tvinges over på CPU", + "llm.load.numCpuExpertLayersRatio/subTitle": "Antal lag, hvor eksperterne skal tvinges over på CPU. Sparer VRAM og kan være hurtigere end delvis GPU-aflastning. Anbefales ikke, hvis modellen kan være helt i VRAM.", + "llm.load.numCpuExpertLayersRatio/info": "Angiver hvor mange lag eksperten skal tvinges over på CPU. Opmærksomhedslagene forbliver på GPU'en, hvilket sparer VRAM og samtidig holder inferensen rimelig hurtig.", + "llm.load.llama.evalBatchSize/title": "Evalueringsbatchstørrelse", + "llm.load.llama.evalBatchSize/subTitle": "Antal inputtokens der behandles ad gangen. En højere værdi øger ydeevnen, men bruger mere hukommelse", + "llm.load.llama.evalBatchSize/info": "Angiver hvor mange eksempler der behandles sammen i én batch under evaluering, hvilket påvirker hastighed og hukommelsesforbrug", + "llm.load.llama.ropeFrequencyBase/title": "RoPE-frekvensbase", + "llm.load.llama.ropeFrequencyBase/subTitle": "Brugerdefineret basisfrekvens for rotary positional embeddings (RoPE). En højere værdi kan give bedre ydeevne ved lange kontekster", + "llm.load.llama.ropeFrequencyBase/info": "[Avanceret] Justerer basisfrekvensen for Rotary Positional Encoding, hvilket påvirker hvordan positionsinformation indlejres", + "llm.load.llama.ropeFrequencyScale/title": "RoPE-frekvensskala", + "llm.load.llama.ropeFrequencyScale/subTitle": "Kontekstlængden skaleres med denne faktor for at udvide den effektive kontekst ved brug af RoPE", + "llm.load.llama.ropeFrequencyScale/info": "[Avanceret] Ændrer skaleringen af frekvensen for Rotary Positional Encoding for at styre granulariteten i positionskodningen", + "llm.load.llama.acceleration.offloadRatio/title": "GPU-aflastning", + "llm.load.llama.acceleration.offloadRatio/subTitle": "Antal diskrete modellag, der skal beregnes på GPU'en for GPU-acceleration", + "llm.load.llama.acceleration.offloadRatio/info": "Angiv hvor mange lag der skal aflæsses til GPU'en.", + "llm.load.llama.flashAttention/title": "Flash Attention", + "llm.load.llama.flashAttention/subTitle": "Reducerer hukommelsesforbrug og genereringstid på nogle modeller", + "llm.load.llama.flashAttention/info": "Accelererer attention-mekanismer for hurtigere og mere effektiv behandling", + "llm.load.numExperts/title": "Antal eksperter", + "llm.load.numExperts/subTitle": "Antal eksperter, der skal bruges i modellen", + "llm.load.numExperts/info": "Antallet af eksperter, der skal bruges i modellen", + "llm.load.llama.keepModelInMemory/title": "Behold model i hukommelsen", + "llm.load.llama.keepModelInMemory/subTitle": "Reservér systemhukommelse til modellen, selv når den er aflæsset til GPU. Forbedrer ydeevnen, men kræver mere system-RAM", + "llm.load.llama.keepModelInMemory/info": "Forhindrer, at modellen swappes ud til disk, hvilket giver hurtigere adgang på bekostning af højere RAM-forbrug", + "llm.load.llama.useFp16ForKVCache/title": "Brug FP16 til KV-cache", + "llm.load.llama.useFp16ForKVCache/info": "Reducerer hukommelsesforbruget ved at gemme cachen i halv præcision (FP16)", + "llm.load.llama.tryMmap/title": "Prøv mmap()", + "llm.load.llama.tryMmap/subTitle": "Forbedrer modellens indlæsningstid. Deaktivering kan forbedre ydeevnen, hvis modellen er større end den tilgængelige system-RAM", + "llm.load.llama.tryMmap/info": "Indlæs modelfiler direkte fra disk til hukommelse", + "llm.load.llama.cpuThreadPoolSize/title": "Størrelse på CPU-trådpool", + "llm.load.llama.cpuThreadPoolSize/subTitle": "Antal CPU-tråde der skal tildeles den trådpool, der bruges til modelberegning", + "llm.load.llama.cpuThreadPoolSize/info": "Antallet af CPU-tråde, der skal tildeles trådpoolen til modelberegning. Flere tråde giver ikke altid bedre ydeevne. Standardværdien er <{{dynamicValue}}>.", + "llm.load.llama.kCacheQuantizationType/title": "K-cache-kvantiseringstype", + "llm.load.llama.kCacheQuantizationType/subTitle": "Lavere værdier reducerer hukommelsesforbruget, men kan sænke kvaliteten. Effekten varierer betydeligt mellem modeller.", + "llm.load.llama.vCacheQuantizationType/title": "V-cache-kvantiseringstype", + "llm.load.llama.vCacheQuantizationType/subTitle": "Lavere værdier reducerer hukommelsesforbruget, men kan sænke kvaliteten. Effekten varierer betydeligt mellem modeller.", + "llm.load.llama.vCacheQuantizationType/turnedOnWarning": "⚠️ Du skal deaktivere denne værdi, hvis Flash Attention ikke er aktiveret", + "llm.load.llama.vCacheQuantizationType/disabledMessage": "Kan kun aktiveres, når Flash Attention er aktiveret", + "llm.load.llama.vCacheQuantizationType/invalidF32MetalState": "⚠️ Du skal deaktivere Flash Attention, når du bruger F32", + "llm.load.mlx.kvCacheBits/title": "KV-cache-kvantisering", + "llm.load.mlx.kvCacheBits/subTitle": "Antal bits KV-cachen skal kvantiseres til", + "llm.load.mlx.kvCacheBits/info": "Antal bits KV-cachen skal kvantiseres til", + "llm.load.mlx.kvCacheBits/turnedOnWarning": "Indstillingen for kontekstlængde ignoreres, når KV-cache-kvantisering bruges", + "llm.load.mlx.kvCacheGroupSize/title": "KV-cache-kvantisering: Gruppestørrelse", + "llm.load.mlx.kvCacheGroupSize/subTitle": "Gruppestørrelse under kvantiseringsoperationen for KV-cachen. En større gruppestørrelse reducerer hukommelsesforbruget, men kan sænke kvaliteten", + "llm.load.mlx.kvCacheGroupSize/info": "Antal bits KV-cachen skal kvantiseres til", + "llm.load.mlx.kvCacheQuantizationStart/title": "KV-cache-kvantisering: Start kvantisering når ctx passerer denne længde", + "llm.load.mlx.kvCacheQuantizationStart/subTitle": "Tærskel for kontekstlængde, hvor kvantisering af KV-cachen skal starte", + "llm.load.mlx.kvCacheQuantizationStart/info": "Tærskel for kontekstlængde, hvor kvantisering af KV-cachen skal starte", + "llm.load.mlx.kvCacheQuantization/title": "KV-cache-kvantisering", + "llm.load.mlx.kvCacheQuantization/subTitle": "Kvantisér modellens KV-cache. Det kan give hurtigere generering og lavere hukommelsesforbrug,\nmen på bekostning af kvaliteten af modellens output.", + "llm.load.mlx.kvCacheQuantization/bits/title": "Bits til KV-cache-kvantisering", + "llm.load.mlx.kvCacheQuantization/bits/tooltip": "Antal bits, KV-cachen skal kvantiseres til", + "llm.load.mlx.kvCacheQuantization/bits/bits": "Bits", + "llm.load.mlx.kvCacheQuantization/groupSize/title": "Strategi for gruppestørrelse", + "llm.load.mlx.kvCacheQuantization/groupSize/accuracy": "Præcis", + "llm.load.mlx.kvCacheQuantization/groupSize/balanced": "Balanceret", + "llm.load.mlx.kvCacheQuantization/groupSize/speedy": "Hurtig", + "llm.load.mlx.kvCacheQuantization/groupSize/tooltip": "Avanceret: Konfiguration af kvantiseret 'matmul group size'\n\n• Præcis = gruppestørrelse 32\n• Balanceret = gruppestørrelse 64\n• Hurtig = gruppestørrelse 128\n", + "llm.load.mlx.kvCacheQuantization/quantizedStart/title": "Start kvantisering når ctx når denne længde", + "llm.load.mlx.kvCacheQuantization/quantizedStart/tooltip": "Når konteksten når dette antal tokens,\nbegyndes kvantisering af KV-cachen", + "embedding.load.contextLength/title": "Kontekstlængde", + "embedding.load.contextLength/subTitle": "Det maksimale antal tokens modellen kan tage højde for i én prompt. Se mulighederne under \"Kontekstoverløb\" i \"Inferensparametre\" for flere måder at håndtere dette på", + "embedding.load.contextLength/info": "Angiver det maksimale antal tokens modellen kan tage i betragtning på én gang, hvilket påvirker hvor meget kontekst den bevarer under behandlingen", + "embedding.load.llama.ropeFrequencyBase/title": "RoPE-frekvensbase", + "embedding.load.llama.ropeFrequencyBase/subTitle": "Brugerdefineret basisfrekvens for rotary positional embeddings (RoPE). En højere værdi kan give bedre ydeevne ved lange kontekster", + "embedding.load.llama.ropeFrequencyBase/info": "[Avanceret] Justerer basisfrekvensen for Rotary Positional Encoding, hvilket påvirker hvordan positionsinformation indlejres", + "embedding.load.llama.evalBatchSize/title": "Evalueringsbatchstørrelse", + "embedding.load.llama.evalBatchSize/subTitle": "Antal inputtokens der behandles ad gangen. En højere værdi øger ydeevnen, men bruger mere hukommelse", + "embedding.load.llama.evalBatchSize/info": "Angiver antallet af tokens, der behandles sammen i én batch under evaluering", + "embedding.load.llama.ropeFrequencyScale/title": "RoPE-frekvensskala", + "embedding.load.llama.ropeFrequencyScale/subTitle": "Kontekstlængden skaleres med denne faktor for at udvide den effektive kontekst ved brug af RoPE", + "embedding.load.llama.ropeFrequencyScale/info": "[Avanceret] Ændrer skaleringen af frekvensen for Rotary Positional Encoding for at styre granulariteten i positionskodningen", + "embedding.load.llama.acceleration.offloadRatio/title": "GPU-aflastning", + "embedding.load.llama.acceleration.offloadRatio/subTitle": "Antal diskrete modellag, der skal beregnes på GPU'en for GPU-acceleration", + "embedding.load.llama.acceleration.offloadRatio/info": "Angiv hvor mange lag der skal aflæsses til GPU'en.", + "embedding.load.llama.keepModelInMemory/title": "Behold model i hukommelsen", + "embedding.load.llama.keepModelInMemory/subTitle": "Reservér systemhukommelse til modellen, selv når den er aflæsset til GPU. Forbedrer ydeevnen, men kræver mere system-RAM", + "embedding.load.llama.keepModelInMemory/info": "Forhindrer, at modellen swappes ud til disk, hvilket giver hurtigere adgang på bekostning af højere RAM-forbrug", + "embedding.load.llama.tryMmap/title": "Prøv mmap()", + "embedding.load.llama.tryMmap/subTitle": "Forbedrer modellens indlæsningstid. Deaktivering kan forbedre ydeevnen, hvis modellen er større end den tilgængelige system-RAM", + "embedding.load.llama.tryMmap/info": "Indlæs modelfiler direkte fra disk til hukommelse", + "embedding.load.seed/title": "Seed", + "embedding.load.seed/subTitle": "Seed til den tilfældighedsgenerator, der bruges ved tekstgenerering. -1 betyder tilfældigt seed", + "embedding.load.seed/info": "Random Seed: Angiver seed-værdien for den tilfældighedsgenerator, der bruges, så resultater kan genskabes", + "presetTooltip": { + "included/title": "Preset-værdier", + "included/description": "Følgende felter vil blive anvendt", + "included/empty": "Ingen felter i dette preset gælder i denne kontekst.", + "included/conflict": "Du vil blive bedt om at vælge, om denne værdi skal anvendes", + "separateLoad/title": "Indlæsningskonfiguration", + "separateLoad/description.1": "Preset'et indeholder også følgende indlæsningskonfiguration. Indlæsningskonfiguration gælder for hele modellen og kræver, at modellen genindlæses for at træde i kraft. Hold", + "separateLoad/description.2": "for at anvende på", + "separateLoad/description.3": ".", + "excluded/title": "Gælder muligvis ikke", + "excluded/description": "Følgende felter er inkluderet i preset'et, men gælder ikke i den aktuelle kontekst.", + "legacy/title": "Ældre preset", + "legacy/description": "Dette preset er et ældre preset. Det indeholder følgende felter, som enten nu håndteres automatisk, eller som ikke længere er relevante.", + "button/publish": "Udgiv til Hub", + "button/pushUpdate": "Send ændringer til Hub", + "button/noChangesToPush": "Ingen ændringer at sende", + "button/export": "Eksportér", + "hubLabel": "Preset fra Hub af {{user}}", + "ownHubLabel": "Dit preset fra Hub" + }, + "customInputs": { + "string": { + "emptyParagraph": "" + }, + "checkboxNumeric": { + "off": "FRA" + }, + "llamaCacheQuantizationType": { + "off": "FRA" + }, + "mlxKvCacheBits": { + "off": "FRA" + }, + "stringArray": { + "empty": "" + }, + "llmPromptTemplate": { + "type": "Type", + "types.jinja/label": "Skabelon (Jinja)", + "jinja.bosToken/label": "BOS-token", + "jinja.eosToken/label": "EOS-token", + "jinja.template/label": "Skabelon", + "jinja/error": "Kunne ikke parse Jinja-skabelon: {{error}}", + "jinja/empty": "Indtast venligst en Jinja-skabelon ovenfor.", + "jinja/unlikelyToWork": "Jinja-skabelonen ovenfor virker sandsynligvis ikke, fordi den ikke refererer til variablen \"messages\". Dobbelttjek, at du har indtastet en korrekt skabelon.", + "types.manual/label": "Manuel", + "manual.subfield.beforeSystem/label": "Før system", + "manual.subfield.beforeSystem/placeholder": "Indtast systempræfiks...", + "manual.subfield.afterSystem/label": "Efter system", + "manual.subfield.afterSystem/placeholder": "Indtast systemsuffiks...", + "manual.subfield.beforeUser/label": "Før bruger", + "manual.subfield.beforeUser/placeholder": "Indtast brugerpræfiks...", + "manual.subfield.afterUser/label": "Efter bruger", + "manual.subfield.afterUser/placeholder": "Indtast brugersuffiks...", + "manual.subfield.beforeAssistant/label": "Før assistent", + "manual.subfield.beforeAssistant/placeholder": "Indtast assistentpræfiks...", + "manual.subfield.afterAssistant/label": "Efter assistent", + "manual.subfield.afterAssistant/placeholder": "Indtast assistentsuffiks...", + "stopStrings/label": "Yderligere stopstrenge", + "stopStrings/subTitle": "Skabelonspecifikke stopstrenge, som bruges ud over brugerdefinerede stopstrenge." + }, + "contextLength": { + "maxValueTooltip": "Dette er det maksimale antal tokens, modellen er trænet til at håndtere. Klik for at sætte konteksten til denne værdi", + "maxValueTextStart": "Modellen understøtter op til", + "maxValueTextEnd": "tokens", + "tooltipHint": "Selvom en model måske understøtter op til et bestemt antal tokens, kan ydeevnen blive dårligere, hvis din computers ressourcer ikke kan håndtere belastningen – vær forsigtig, når du øger denne værdi" + }, + "contextOverflowPolicy": { + "stopAtLimit": "Stop ved grænsen", + "stopAtLimitSub": "Stop genereringen, når modellens hukommelse er fuld", + "truncateMiddle": "Afkort midten", + "truncateMiddleSub": "Fjerner beskeder fra midten af samtalen for at give plads til nyere beskeder. Modellen vil stadig huske begyndelsen af samtalen", + "rollingWindow": "Rullende vindue", + "rollingWindowSub": "Modellen vil altid få de seneste få beskeder, men kan glemme begyndelsen af samtalen" + }, + "llamaAccelerationOffloadRatio": { + "max": "MAKS", + "off": "FRA" + }, + "gpuSplitStrategy": { + "evenly": "Jævnt fordelt", + "favorMainGpu": "Prioritér primær GPU" + }, + "speculativeDecodingDraftModel": { + "readMore": "Læs, hvordan det virker", + "placeholder": "Vælg en kompatibel draft-model", + "noCompatible": "Ingen kompatible draft-modeller fundet til dit nuværende modelvalg", + "stillLoading": "Finder kompatible draft-modeller...", + "notCompatible": "Den valgte draft-model () er ikke kompatibel med det nuværende modelvalg ().", + "off": "FRA", + "loadModelToSeeOptions": "Indlæs model for at se kompatible muligheder", + "compatibleWithNumberOfModels": "Anbefales til mindst {{dynamicValue}} af dine modeller", + "recommendedForSomeModels": "Anbefales til nogle modeller", + "recommendedForLlamaModels": "Anbefales til Llama-modeller", + "recommendedForQwenModels": "Anbefales til Qwen-modeller", + "onboardingModal": { + "introducing": "Vi introducerer", + "speculativeDecoding": "Spekulativ afkodning", + "firstStepBody": "Inferens-accelerering til llama.cpp- og MLX-modeller", + "secondStepTitle": "Hurtigere inferens med spekulativ afkodning", + "secondStepBody": "Spekulativ afkodning er en teknik, hvor to modeller arbejder sammen:\n - En større \"hovedmodel\"\n - En mindre \"draft-model\"\n\nUnder generering foreslår draft-modellen hurtigt tokens, som den større hovedmodel derefter verificerer. Verifikation af tokens er langt hurtigere end faktisk at generere dem, og det er her hastighedsgevinsten kommer fra. **Generelt gælder det, at jo større størrelsesforskel der er mellem hovedmodellen og draft-modellen, desto større er hastighedsforbedringen**.\n\nFor at bevare kvaliteten accepterer hovedmodellen kun tokens, som stemmer overens med det, den selv ville have genereret. Det gør det muligt at bevare kvaliteten fra den større model ved højere inferenshastighed. Begge modeller skal dele samme ordforråd.", + "draftModelRecommendationsTitle": "Anbefalinger til draft-modeller", + "basedOnCurrentModels": "Baseret på dine nuværende modeller", + "close": "Luk", + "next": "Næste", + "done": "Færdig" + }, + "speculativeDecodingLoadModelToSeeOptions": "Indlæs først en model ", + "errorEngineNotSupported": "Spekulativ afkodning kræver mindst version {{minVersion}} af motoren {{engineName}}. Opdatér motoren () og genindlæs modellen for at bruge denne funktion.", + "errorEngineNotSupported/noKey": "Spekulativ afkodning kræver mindst version {{minVersion}} af motoren {{engineName}}. Opdatér motoren og genindlæs modellen for at bruge denne funktion." + }, + "llmReasoningParsing": { + "startString/label": "Startstreng", + "startString/placeholder": "Indtast startstrengen...", + "endString/label": "Slutstreng", + "endString/placeholder": "Indtast slutstrengen..." + } + }, + "saveConflictResolution": { + "title": "Vælg hvilke værdier der skal med i preset'et", + "description": "Vælg selv hvilke værdier der skal bevares", + "instructions": "Klik på en værdi for at inkludere den", + "userValues": "Tidligere værdi", + "presetValues": "Ny værdi", + "confirm": "Bekræft", + "cancel": "Annuller" + }, + "applyConflictResolution": { + "title": "Hvilke værdier skal bevares?", + "description": "Du har ikke-committede ændringer, som overlapper med det indkommende preset", + "instructions": "Klik på en værdi for at beholde den", + "userValues": "Nuværende værdi", + "presetValues": "Indkommende preset-værdi", + "confirm": "Bekræft", + "cancel": "Annuller" + }, + "empty": "", + "noModelSelected": "Ingen modeller valgt", + "apiIdentifier.label": "API-identifikator", + "apiIdentifier.hint": "Angiv eventuelt en identifikator til denne model. Den vil blive brugt i API-forespørgsler. Lad feltet stå tomt for at bruge standardidentifikatoren.", + "idleTTL.label": "Aflæs automatisk ved inaktivitet (TTL)", + "idleTTL.hint": "Hvis den er angivet, aflæsses modellen automatisk efter at have været inaktiv i den angivne tid.", + "idleTTL.mins": "min", + "presets": { + "title": "Preset", + "saveChanges": "Gem", + "saveChanges/description": "Gem dine ændringer i preset'et.", + "saveChanges.manual": "Nye felter fundet. Du får mulighed for at vælge, hvilke ændringer der skal med i preset'et.", + "saveChanges.manual.hold.0": "Hold", + "saveChanges.manual.hold.1": "nede for at vælge, hvilke ændringer der skal gemmes i preset'et.", + "saveChanges.saveAll.hold.0": "Hold", + "saveChanges.saveAll.hold.1": "nede for at gemme alle ændringer.", + "saveChanges.saveInPreset.hold.0": "Hold", + "saveChanges.saveInPreset.hold.1": "nede for kun at gemme ændringer i felter, der allerede er inkluderet i preset'et.", + "saveChanges/error": "Kunne ikke gemme ændringer i preset'et.", + "saveChanges.manual/description": "Vælg hvilke ændringer der skal med i preset'et.", + "saveAs": "Gem som ny...", + "presetNamePlaceholder": "Indtast et navn til preset'et...", + "cannotCommitChangesLegacy": "Dette er et ældre preset og kan ikke ændres. Du kan oprette en kopi ved at bruge \"Gem som ny...\".", + "cannotSaveChangesNoChanges": "Ingen ændringer at gemme.", + "emptyNoUnsaved": "Vælg et preset...", + "emptyWithUnsaved": "Ikke-gemt preset", + "saveEmptyWithUnsaved": "Gem preset som...", + "saveConfirm": "Gem", + "saveCancel": "Annuller", + "saving": "Gemmer...", + "save/error": "Kunne ikke gemme preset.", + "deselect": "Fravælg preset", + "deselect/error": "Kunne ikke fravælge preset.", + "select/error": "Kunne ikke vælge preset.", + "delete/error": "Kunne ikke slette preset.", + "discardChanges": "Forkast ikke-gemte ændringer", + "discardChanges/info": "Forkast alle ikke-gemte ændringer, og gendan preset'et til dets oprindelige tilstand", + "newEmptyPreset": "+ Nyt preset", + "importPreset": "Importér", + "contextMenuCopyIdentifier": "Kopiér preset-identifikator", + "contextMenuSelect": "Anvend preset", + "contextMenuDelete": "Slet...", + "contextMenuShare": "Udgiv...", + "contextMenuOpenInHub": "Vis på web", + "contextMenuPullFromHub": "Hent nyeste", + "contextMenuPushChanges": "Send ændringer til Hub", + "contextMenuPushingChanges": "Sender...", + "contextMenuPushedChanges": "Ændringer sendt", + "contextMenuExport": "Eksportér fil", + "contextMenuRevealInExplorer": "Vis i Stifinder", + "contextMenuRevealInFinder": "Vis i Finder", + "share": { + "title": "Udgiv preset", + "action": "Del dit preset, så andre kan downloade, like og forke det", + "presetOwnerLabel": "Ejer", + "uploadAs": "Dit preset bliver oprettet som {{name}}", + "presetNameLabel": "Preset-navn", + "descriptionLabel": "Beskrivelse (valgfri)", + "loading": "Udgiver...", + "success": "Preset blev sendt til Hub", + "presetIsLive": " er nu live på Hub!", + "close": "Luk", + "confirmViewOnWeb": "Vis på web", + "confirmCopy": "Kopiér URL", + "confirmCopied": "Kopieret!", + "pushedToHub": "Dit preset blev sendt til Hub", + "descriptionPlaceholder": "Indtast en beskrivelse...", + "willBePublic": "Dette preset bliver offentligt. Alle på internettet vil kunne se det.", + "willBePrivate": "Kun du vil kunne se dette preset", + "willBeOrgVisible": "Dette preset vil være synligt for alle i organisationen.", + "publicSubtitle": "Dit preset er offentligt. Andre kan downloade og forke det på lmstudio.ai", + "privateUsageReached": "Grænsen for antal private presets er nået.", + "continueInBrowser": "Fortsæt i browser", + "confirmShareButton": "Udgiv", + "error": "Kunne ikke udgive preset", + "createFreeAccount": "Opret en gratis konto på Hub for at udgive presets" + }, + "update": { + "title": "Send ændringer til Hub", + "title/success": "Preset blev opdateret", + "subtitle": "Foretag ændringer i og send dem til Hub", + "descriptionLabel": "Beskrivelse", + "descriptionPlaceholder": "Indtast en beskrivelse...", + "loading": "Sender...", + "cancel": "Annuller", + "createFreeAccount": "Opret en gratis konto på Hub for at udgive presets", + "error": "Kunne ikke sende opdatering", + "confirmUpdateButton": "Send" + }, + "resolve": { + "title": "Løs konflikter...", + "tooltip": "Åbn et modalvindue for at løse forskelle i forhold til Hub-versionen" + }, + "loginToManage": { + "title": "Log ind for at administrere..." + }, + "downloadFromHub": { + "title": "Download", + "downloading": "Downloader...", + "success": "Downloadet!", + "error": "Kunne ikke downloade" + }, + "push": { + "title": "Send ændringer", + "pushing": "Sender...", + "success": "Sendt", + "tooltip": "Send dine lokale ændringer til den fjernversion, der er hostet på Hub", + "error": "Kunne ikke sende" + }, + "saveAsNewModal": { + "title": "Ups! Fandt ikke preset'et på Hub", + "confirmSaveAsNewDescription": "Vil du udgive dette preset som et nyt?", + "confirmButton": "Udgiv som nyt" + }, + "pull": { + "title": "Hent nyeste", + "error": "Kunne ikke hente", + "contextMenuErrorMessage": "Kunne ikke hente", + "success": "Hentet", + "pulling": "Henter...", + "upToDate": "Opdateret!", + "unsavedChangesModal": { + "title": "Du har ikke-gemte ændringer.", + "bodyContent": "Hvis du henter fra fjernversionen, overskrives dine ikke-gemte ændringer. Fortsæt?", + "confirmButton": "Overskriv ikke-gemte ændringer" + } + }, + "import": { + "title": "Importér et preset fra fil", + "dragPrompt": "Træk og slip preset-filer (.tar.gz eller preset.json), eller vælg fra din computer", + "remove": "Fjern", + "cancel": "Annuller", + "importPreset_zero": "Importér preset", + "importPreset_one": "Importér preset", + "importPreset_other": "Importér {{count}} presets", + "selectDialog": { + "title": "Vælg preset-fil (preset.json eller .tar.gz)", + "button": "Importér" + }, + "error": "Kunne ikke importere preset", + "resultsModal": { + "titleSuccessSection_one": "1 preset importeret", + "titleSuccessSection_other": "{{count}} presets importeret", + "titleFailSection_zero": "", + "titleFailSection_one": "({{count}} mislykkedes)", + "titleFailSection_other": "({{count}} mislykkedes)", + "titleAllFailed": "Kunne ikke importere presets", + "importMore": "Importér flere", + "close": "Færdig", + "successBadge": "Succes", + "alreadyExistsBadge": "Preset findes allerede", + "errorBadge": "Fejl", + "invalidFileBadge": "Ugyldig fil", + "otherErrorBadge": "Kunne ikke importere preset", + "errorViewDetailsButton": "Vis detaljer", + "seeError": "Se fejl", + "noName": "Intet preset-navn", + "useInChat": "Brug i chat" + }, + "importFromUrl": { + "button": "Importér fra URL...", + "title": "Importér fra URL", + "back": "Importér fra fil...", + "action": "Indsæt LM Studio Hub-URL'en til det preset, du vil importere, nedenfor", + "invalidUrl": "Ugyldig URL. Sørg for, at du indsætter en korrekt LM Studio Hub-URL.", + "tip": "Du kan installere preset'et direkte med knappen {{buttonName}} i LM Studio Hub", + "confirm": "Importér", + "cancel": "Annuller", + "loading": "Importerer...", + "error": "Kunne ikke downloade preset." + } + }, + "download": { + "title": "Hent fra LM Studio Hub", + "subtitle": "Gem i dine presets. Så kan du bruge dette preset i appen", + "button": "Hent", + "button/loading": "Henter...", + "cancel": "Annuller", + "error": "Kunne ikke downloade preset." + }, + "inclusiveness": { + "speculativeDecoding": "Inkludér i preset" + } + }, + "flashAttentionWarning": "Flash Attention er en eksperimentel funktion, som kan give problemer med nogle modeller. Hvis du oplever problemer, så prøv at deaktivere den.", + "llamaKvCacheQuantizationWarning": "KV-cache-kvantisering er en eksperimentel funktion, som kan give problemer med nogle modeller. Flash Attention skal være aktiveret for kvantisering af V-cache. Hvis du oplever problemer, så nulstil til standardværdien \"F16\".", + "seedUncheckedHint": "Tilfældigt seed", + "ropeFrequencyBaseUncheckedHint": "Auto", + "ropeFrequencyScaleUncheckedHint": "Auto", + "hardware": { + "environmentVariables": "Miljøvariabler", + "environmentVariables.info": "Hvis du er i tvivl, så behold standardværdierne", + "environmentVariables.reset": "Nulstil til standard", + "gpus.information": "Konfigurer grafikprocessorer (GPU'er), der er registreret på din computer", + "gpuSettings": { + "editMaxCapacity": "Redigér maks. kapacitet", + "hideEditMaxCapacity": "Skjul redigering af maks. kapacitet", + "allOffWarning": "Alle GPU'er er slået fra eller deaktiveret. Sørg for, at der er tildelt GPU-ressourcer, for at modeller kan indlæses", + "split": { + "title": "Strategi", + "placeholder": "Vælg en fordeling af GPU-hukommelse", + "options": { + "generalDescription": "Konfigurer hvordan modeller skal indlæses på dine GPU'er", + "evenly": { + "title": "Fordel jævnt", + "description": "Fordel hukommelse jævnt på tværs af GPU'er" + }, + "priorityOrder": { + "title": "Prioritetsrækkefølge", + "description": "Træk for at ændre rækkefølgen. Systemet vil forsøge at allokere mere på de GPU'er, der står først" + }, + "custom": { + "title": "Brugerdefineret", + "description": "Fordel hukommelse", + "maxAllocation": "Maksimal allokering" + } + } + }, + "deviceId.info": "Unik identifikator for denne enhed", + "changesOnlyAffectNewlyLoadedModels": "Ændringer påvirker kun modeller, der indlæses fremover", + "toggleGpu": "Aktivér/deaktivér GPU" + } + }, + "load.gpuSplitConfig/title": "Konfiguration af GPU-opdeling", + "envVars/title": "Angiv en miljøvariabel", + "envVars": { + "select": { + "placeholder": "Vælg en miljøvariabel...", + "noOptions": "Ingen flere tilgængelige", + "filter": { + "placeholder": "Filtrér søgeresultater", + "resultsFound_zero": "Ingen resultater fundet", + "resultsFound_one": "1 resultat fundet", + "resultsFound_other": "{{count}} resultater fundet" + } + }, + "inputValue": { + "placeholder": "Indtast en værdi" + }, + "values": { + "title": "Nuværende værdier" + } + } +} \ No newline at end of file diff --git a/da/developer.json b/da/developer.json new file mode 100644 index 00000000..f7c9fa3f --- /dev/null +++ b/da/developer.json @@ -0,0 +1,19 @@ +{ + "runtimeSettings/title": "Runtime-indstillinger", + "loadSettings/title": "Indlæsningsindstillinger", + "modelSettings/placeholder": "Vælg en model for at konfigurere den", + "serverOptions/title": "Serverindstillinger", + "serverOptions/port/hint": "Hvilken port der skal lyttes på. Som standard bruger LM Studio port 1234. Du skal muligvis ændre den, hvis porten allerede er i brug.", + "serverOptions/cors/title": "Aktivér CORS", + "serverOptions/cors/hint1": "Hvis CORS (Cross-origin Resource Sharing) aktiveres, kan de websteder, du besøger, sende forespørgsler til LM Studio-serveren.", + "serverOptions/cors/hint2": "CORS kan være nødvendigt, når du sender forespørgsler fra en webside eller fra VS Code / en anden udvidelse.", + "serverOptions/network/title": "Tillad netværksforbindelser", + "serverOptions/network/hint1": "Om forbindelser fra andre enheder på netværket skal tillades.", + "serverOptions/network/hint2": "Hvis det ikke er markeret, vil serveren kun lytte på localhost.", + "serverOptions/verboseLogging/title": "Detaljeret logning", + "serverOptions/contentLogging/title": "Log spørgsmål og svar", + "serverOptions/contentLogging/hint": "Om spørgsmål og/eller svar skal logges i den lokale serverlogfil.", + "serverOptions/loadModel/error": "Kunne ikke indlæse model", + "serverLogs/scrollToBottom": "Hop til bunden", + "serverLogs/clearLogs": "Ryd logs ({{shortcut}})" +} \ No newline at end of file diff --git a/da/discover.json b/da/discover.json new file mode 100644 index 00000000..39e1b2b8 --- /dev/null +++ b/da/discover.json @@ -0,0 +1,24 @@ +{ + "collectionsColumn": "Samlinger", + "bookmarksColumn": "Bogmærker", + "searchBar/placeholder": "Søg efter modeller på Hugging Face...", + "sortBy": "Sortér efter", + "searchSortKey.default/title": "Bedste match", + "searchSortKey.likes/title": "Flest likes", + "searchSortKey.downloads/title": "Flest downloads", + "searchSortKey.lastModified/title": "Senest opdateret", + "searchSortKey.createdAt/title": "Senest oprettet", + "download.option.willFitEstimation.caveat": "Der kan være andre faktorer, som forhindrer indlæsning, f.eks. modellens arkitektur, modellfilens integritet eller mængden af tilgængelig hukommelse på din computer.", + "download.option.willFitEstimation.fullGPUOffload/title": "Fuld GPU-aflastning mulig", + "download.option.willFitEstimation.fullGPUOffload/description": "Denne model kan muligvis være fuldt ud i din GPU-hukommelse. Det kan øge hastigheden betydeligt.", + "download.option.willFitEstimation.partialGPUOffload/title": "Delvis GPU-aflastning mulig", + "download.option.willFitEstimation.partialGPUOffload/description": "Denne model kan muligvis delvist være i din GPU-hukommelse. Det kan ofte øge hastigheden betydeligt.", + "download.option.willFitEstimation.fitWithoutGPU/title": "Passer sandsynligvis", + "download.option.willFitEstimation.fitWithoutGPU/description": "Denne model vil sandsynligvis passe i din computers hukommelse.", + "download.option.willFitEstimation.willNotFit/title": "Sandsynligvis for stor til denne computer", + "download.option.willFitEstimation.willNotFit/description": "Hukommelseskravene for at bruge denne modelfil kan overstige de tilgængelige ressourcer på din computer. Det anbefales IKKE at downloade denne fil.", + "download.option.recommended/title": "Anbefalet", + "download.option.recommended/description": "Baseret på din hardware anbefales denne mulighed.", + "download.option.downloaded/title": "Downloadet", + "download.option.downloading/title": "Downloader ({{progressPercentile}}%)" +} \ No newline at end of file diff --git a/da/download.json b/da/download.json new file mode 100644 index 00000000..37d201d0 --- /dev/null +++ b/da/download.json @@ -0,0 +1,5 @@ +{ + "postDownloadActionExecutor.zipExtraction/status": "Udpakker...", + "finalizing": "Færdiggør...", + "noOptions": "Ingen kompatible muligheder tilgængelige til download" +} \ No newline at end of file diff --git a/da/models.json b/da/models.json new file mode 100644 index 00000000..a611ec5a --- /dev/null +++ b/da/models.json @@ -0,0 +1,13 @@ +{ + "action.model.delete": "Slet", + "action.model.delete.full": "Slet model", + "action.model.delete.confirmation/title": "Slet {{name}}", + "action.model.delete.confirmation/description": "Er du sikker? Dette vil permanent slette alle filer, der er knyttet til denne model, fra din computer. Handlingen kan ikke fortrydes.", + "action.model.delete.confirmation/confirm": "Slet", + "indexingOngoing": "Indeksering er stadig i gang... Nogle modeller vises måske ikke endnu.", + "loadState/loaded": "Indlæst", + "loadState/loading": "Indlæser", + "loadState/unloaded": "Ikke indlæst", + "loadState/unloading": "Aflaster", + "loadState/idle": "Inaktiv" +} \ No newline at end of file diff --git a/da/onboarding.json b/da/onboarding.json new file mode 100644 index 00000000..c6c5a3f0 --- /dev/null +++ b/da/onboarding.json @@ -0,0 +1,40 @@ +{ + "action.skipOnboarding": "Spring onboarding over", + "action.next": "Næste", + "action.back": "Tilbage", + "action.finish": "Afslut", + "dismissable_rag_modal": { + "description": "Du kan nu chatte med dine egne dokumenter ved hjælp af Retrieval Augmented Generation (RAG). Sådan fungerer det:", + "instructions": { + "attach_files": { + "title": "Vedhæft filer", + "description": "Upload op til 5 filer ad gangen med en samlet maksimal størrelse på 30 MB. Understøttede formater er PDF, DOCX, TXT og CSV." + }, + "be_specific": { + "title": "Vær specifik", + "description": "Når du stiller spørgsmål, så inkluder så mange detaljer som muligt. Det hjælper systemet med at finde de mest relevante oplysninger i dine dokumenter." + }, + "get_responses": { + "title": "Få svar og eksperimentér", + "description": "LLM’en vil analysere din forespørgsel sammen med de hentede uddrag fra dine dokumenter og forsøge at generere et svar. Prøv forskellige formuleringer for at se, hvad der virker bedst." + } + } + }, + "toolUse": { + "step_0": { + "title": "Beta: Værktøjsbrug 🛠️ (Function Calling)", + "text_0": "Nogle modeller (f.eks. Llama 3.1/3.2, Mistral, Qwen m.fl.) er trænet til at bruge værktøjer.", + "text_1": "I praksis betyder det, at du kan give modellen en liste af 'værktøjer' (funktionssignaturer) i et bestemt format, og modellen kan derefter vælge at 'kalde' dem baseret på brugerens prompt.", + "text_2": "Du kan forestille dig brugsscenarier som at kalde et API, køre kode eller i princippet alt, der kan beskrives som et funktionskald." + }, + "step_1": { + "title": "Kom i gang med værktøjsbrug", + "toolUseCanWorkWithAnyModel": "Modeller, der er trænet til værktøjsbrug, vil fungere bedst, men du kan forsøge at bruge værktøjer med alle modeller. Læs dokumentationen for at få mere at vide.\nModeller med værktøjsunderstøttelse vil være markeret med et nyt badge:", + "hasCompatibleModel": "🎉 Det ser ud til, at du allerede har modeller med værktøjsunderstøttelse!", + "downloadRecommendedModel": "Download en model, der er trænet til værktøjsbrug:" + }, + "nextButton": "Næste", + "letsGoButton": "Indlæs model og start server", + "doneButton": "Luk" + } +} \ No newline at end of file diff --git a/da/settings.json b/da/settings.json new file mode 100644 index 00000000..0f2abdaa --- /dev/null +++ b/da/settings.json @@ -0,0 +1,53 @@ +{ + "appUpdate": "Programopdatering", + "checkingAppUpdate": "Søger efter opdateringer...", + "checkForUpdates": "Søg efter opdateringer", + "failedCheckingAppUpdate": "Kunne ikke søge efter opdateringer", + "newUpdateAvailable": "En ny version af LM Studio er tilgængelig! 🎉", + "downloadingInProgress": "Downloader opdatering...", + "downloadUpdate": "Opdater til LM Studio {{version}}", + "yourCurrentVersion": "Du bruger i øjeblikket:", + "latestVersion": "Den nyeste version er:", + "downloadLabel": "Opdater nu", + "cancelDownloadLabel": "Annuller", + "downloadingUpdate": "Downloader opdatering...", + "updateDownloaded": "Opdatering downloadet!", + "restartAppToUpdate": "Genstart programmet for at installere opdateringen", + "doItLater": "Jeg gør det senere", + "failedToUpdate": "Programopdateringen mislykkedes. Tjek din internetforbindelse, og prøv igen senere.", + "retryInBackground": "Prøv igen i baggrunden", + "laterLabel": "Senere", + "releaseNotesLabel": "Versionsnoter", + "remindMeLater": "Mind mig om det senere", + "failedDownloadUpdate": "Kunne ikke downloade opdateringen", + "installAndRelaunch": "Installér og genstart", + "uptodate": "Du er helt opdateret! Den aktuelle version er {{version}}", + "preferences": "Indstillinger", + "sideButtonLabels": "Vis etiketter på sideknapper", + "colorThemeLabel": "Farvetema", + "complexityLevelLabel": "Kompleksitetsniveau for brugergrænsefladen", + "selectComplexityLevelPlaceholder": "Vælg et standard kompleksitetsniveau for brugergrænsefladen", + "userComplexityLevelLabel": "Bruger", + "powerUserComplexityLevelLabel": "Avanceret bruger", + "developerComplexityLevelLabel": "Udvikler", + "chatSettingsLabel": "Chatindstillinger", + "firstTimeExperienceLabel": "Førstegangsoplevelse for chat", + "firstTimeExperienceMarkCompletedLabel": "Markér som fuldført", + "firstTimeExperienceResetLabel": "Nulstil", + "showPromptSuggestionsLabel": "Vis promptforslag, når du opretter en ny chat", + "shiftEnterToSendLabel": "Brug Shift + Enter til at sende beskeder", + "darkThemeLabel": "Mørk", + "lightThemeLabel": "Lys", + "systemThemeLabel": "Auto", + "sepiaThemeLabel": "Sepia", + "unloadPreviousModelLabel": "Når du vælger en model, der skal indlæses, skal eventuelle indlæste modeller først fjernes", + "languageLabel": "Sprog", + "changeLanguageLabel": "Skift appens sprog", + "developerLabel": "Udvikler", + "showExperimentalFeaturesLabel": "Vis eksperimentelle funktioner", + "appFirstLoadLabel": "Førstegangsoplevelse for programmet", + "showDebugInfoBlocksInChatLabel": "Vis fejlsøgningsblokke i chatten", + "autoLoadBundledLLMLabel": "Indlæs automatisk en medfølgende LLM-model ved opstart", + "showReleaseNotes": "Vis versionsnoter", + "hideReleaseNotes": "Skjul versionsnoter" +} \ No newline at end of file diff --git a/da/sidebar.json b/da/sidebar.json new file mode 100644 index 00000000..c8c96baf --- /dev/null +++ b/da/sidebar.json @@ -0,0 +1,8 @@ +{ + "chat": "Chat", + "discover": "Opdag", + "myModels": "Mine modeller", + "developer": "Udvikler", + "settings": "Indstillinger", + "download": "Downloads" +} \ No newline at end of file