diff --git a/translations/de/.co-op-translator.json b/translations/de/.co-op-translator.json
index 5f757e3..3d2142e 100644
--- a/translations/de/.co-op-translator.json
+++ b/translations/de/.co-op-translator.json
@@ -18,8 +18,8 @@
"language_code": "de"
},
"README.md": {
- "original_hash": "0b61923b9eede59c8981d411f7ed9b50",
- "translation_date": "2026-04-20T15:25:51+00:00",
+ "original_hash": "b0ed8bccef85263eafdc2d2432d3ca19",
+ "translation_date": "2026-04-24T10:41:43+00:00",
"source_file": "README.md",
"language_code": "de"
},
diff --git a/translations/de/README.md b/translations/de/README.md
index bf44870..1dbaa27 100644
--- a/translations/de/README.md
+++ b/translations/de/README.md
@@ -2,11 +2,39 @@
-# Foundry Local Workshop – KI-Apps lokal auf dem Gerät erstellen
-
-Ein praxisorientierter Workshop zum Ausführen von Sprachmodellen auf dem eigenen Rechner und zum Erstellen intelligenter Anwendungen mit [Foundry Local](https://foundrylocal.ai) und dem [Microsoft Agent Framework](https://learn.microsoft.com/en-us/agent-framework/).
-
-> **Was ist Foundry Local?** Foundry Local ist eine leichtgewichtige Laufzeitumgebung, mit der Sie Sprachmodelle vollständig auf Ihrer eigenen Hardware herunterladen, verwalten und bereitstellen können. Es bietet eine **OpenAI-kompatible API**, sodass jedes Tool oder SDK, das OpenAI unterstützt, sich verbinden kann – kein Cloud-Konto erforderlich.
+# Foundry Local Workshop – KI-Anwendungen direkt auf dem Gerät erstellen
+
+Ein praxisorientierter Workshop, um Sprachmodelle auf Ihrem eigenen Gerät auszuführen und intelligente Anwendungen mit [Foundry Local](https://foundrylocal.ai) und dem [Microsoft Agent Framework](https://learn.microsoft.com/en-us/agent-framework/) zu entwickeln.
+
+> **Was ist Foundry Local?** Foundry Local ist eine leichtgewichtige Laufzeitumgebung, die es Ihnen ermöglicht, Sprachmodelle vollständig auf Ihrer eigenen Hardware herunterzuladen, zu verwalten und auszuführen. Es stellt eine **OpenAI-kompatible API** bereit, sodass jedes Tool oder SDK, das OpenAI unterstützt, eine Verbindung herstellen kann – kein Cloud-Account erforderlich.
+
+### 🌐 Mehrsprachige Unterstützung
+
+#### Unterstützt via GitHub Action (Automatisiert & stets aktuell)
+
+
+[Arabisch](../ar/README.md) | [Bengalisch](../bn/README.md) | [Bulgarisch](../bg/README.md) | [Birmanisch (Myanmar)](../my/README.md) | [Chinesisch (vereinfacht)](../zh-CN/README.md) | [Chinesisch (traditionell, Hongkong)](../zh-HK/README.md) | [Chinesisch (traditionell, Macau)](../zh-MO/README.md) | [Chinesisch (traditionell, Taiwan)](../zh-TW/README.md) | [Kroatisch](../hr/README.md) | [Tschechisch](../cs/README.md) | [Dänisch](../da/README.md) | [Niederländisch](../nl/README.md) | [Estnisch](../et/README.md) | [Finnisch](../fi/README.md) | [Französisch](../fr/README.md) | [Deutsch](./README.md) | [Griechisch](../el/README.md) | [Hebräisch](../he/README.md) | [Hindi](../hi/README.md) | [Ungarisch](../hu/README.md) | [Indonesisch](../id/README.md) | [Italienisch](../it/README.md) | [Japanisch](../ja/README.md) | [Kannada](../kn/README.md) | [Khmer](../km/README.md) | [Koreanisch](../ko/README.md) | [Litauisch](../lt/README.md) | [Malaiisch](../ms/README.md) | [Malayalam](../ml/README.md) | [Marathi](../mr/README.md) | [Nepalesisch](../ne/README.md) | [Nigerianisches Pidgin](../pcm/README.md) | [Norwegisch](../no/README.md) | [Persisch (Farsi)](../fa/README.md) | [Polnisch](../pl/README.md) | [Portugiesisch (Brasilien)](../pt-BR/README.md) | [Portugiesisch (Portugal)](../pt-PT/README.md) | [Punjabi (Gurmukhi)](../pa/README.md) | [Rumänisch](../ro/README.md) | [Russisch](../ru/README.md) | [Serbisch (Kyrillisch)](../sr/README.md) | [Slowakisch](../sk/README.md) | [Slowenisch](../sl/README.md) | [Spanisch](../es/README.md) | [Suaheli](../sw/README.md) | [Schwedisch](../sv/README.md) | [Tagalog (Filipino)](../tl/README.md) | [Tamil](../ta/README.md) | [Telugu](../te/README.md) | [Thai](../th/README.md) | [Türkisch](../tr/README.md) | [Ukrainisch](../uk/README.md) | [Urdu](../ur/README.md) | [Vietnamesisch](../vi/README.md)
+
+> **Bevorzugen Sie einen lokalen Klon?**
+>
+> Dieses Repository enthält mehr als 50 Sprachübersetzungen, was die Downloadgröße erheblich erhöht. Um ohne Übersetzungen zu klonen, verwenden Sie Sparse Checkout:
+>
+> **Bash / macOS / Linux:**
+> ```bash
+> git clone --filter=blob:none --sparse https://github.com/microsoft-foundry/Foundry-Local-Lab.git
+> cd Foundry-Local-Lab
+> git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'
+> ```
+>
+> **CMD (Windows):**
+> ```cmd
+> git clone --filter=blob:none --sparse https://github.com/microsoft-foundry/Foundry-Local-Lab.git
+> cd Foundry-Local-Lab
+> git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"
+> ```
+>
+> Dies liefert Ihnen alles, was Sie benötigen, um den Kurs mit deutlich schnellerem Download abzuschließen.
+
---
@@ -15,30 +43,30 @@ Ein praxisorientierter Workshop zum Ausführen von Sprachmodellen auf dem eigene
Am Ende dieses Workshops werden Sie in der Lage sein:
| # | Ziel |
-|---|------|
+|---|-----------|
| 1 | Foundry Local installieren und Modelle mit der CLI verwalten |
-| 2 | Die Foundry Local SDK API für die programmatische Modellverwaltung beherrschen |
-| 3 | Verbindung zum lokalen Inferenzserver mit den SDKs für Python, JavaScript und C# herstellen |
-| 4 | Eine Retrieval-Augmented Generation (RAG) Pipeline bauen, die Antworten auf eigene Daten stützt |
-| 5 | KI-Agenten mit persistenter Anleitung und Personas erstellen |
-| 6 | Multi-Agent-Workflows mit Feedback-Schleifen orchestrieren |
-| 7 | Eine produktionsreife Abschlussanwendung – den Zava Creative Writer – erkunden |
-| 8 | Evaluierungsframeworks mit Gold-Datensätzen und LLM-als-Richter-Bewertung aufbauen |
-| 9 | Audio mit Whisper transkribieren – Sprach-zu-Text lokal mit dem Foundry Local SDK |
+| 2 | Die Foundry Local SDK API für programmatische Modellverwaltung meistern |
+| 3 | Verbindung zum lokalen Inferenzserver über die Python-, JavaScript- und C#-SDKs herstellen |
+| 4 | Eine Retrieval-Augmented-Generation (RAG) Pipeline bauen, die Antworten auf eigene Daten stützt |
+| 5 | KI-Agenten mit persistierenden Anweisungen und Personas erstellen |
+| 6 | Multi-Agent-Arbeitsabläufe mit Feedback-Schleifen orchestrieren |
+| 7 | Eine produktionsreife Abschlussanwendung erkunden – den Zava Creative Writer |
+| 8 | Bewertungsframeworks mit Gold-Datensätzen und LLM-as-Judge-Bewertungen erstellen |
+| 9 | Audio mit Whisper transkribieren – Sprache-zu-Text direkt auf dem Gerät mit dem Foundry Local SDK |
| 10 | Eigene oder Hugging Face Modelle mit ONNX Runtime GenAI und Foundry Local kompilieren und ausführen |
-| 11 | Lokale Modelle externe Funktionen über das Tool-Calling-Pattern aufrufen lassen |
+| 11 | Lokalen Modellen erlauben, externe Funktionen mit dem Tool-Calling-Muster aufzurufen |
| 12 | Eine browserbasierte UI für den Zava Creative Writer mit Echtzeit-Streaming erstellen |
---
## Voraussetzungen
-| Anforderung | Details |
+| Voraussetzung | Details |
|-------------|---------|
-| **Hardware** | Mindestens 8 GB RAM (16 GB empfohlen); AVX2-fähige CPU oder eine unterstützte GPU |
+| **Hardware** | Mindestens 8 GB RAM (16 GB empfohlen); AVX2-fähige CPU oder unterstützte GPU |
| **Betriebssystem** | Windows 10/11 (x64/ARM), Windows Server 2025 oder macOS 13+ |
-| **Foundry Local CLI** | Installation über `winget install Microsoft.FoundryLocal` (Windows) oder `brew tap microsoft/foundrylocal && brew install foundrylocal` (macOS). Details im [Einstiegsleitfaden](https://learn.microsoft.com/en-us/azure/foundry-local/get-started). |
-| **Programmiersprachenlaufzeit** | **Python 3.9+** und/oder **.NET 9.0+** und/oder **Node.js 18+** |
+| **Foundry Local CLI** | Installation via `winget install Microsoft.FoundryLocal` (Windows) oder `brew tap microsoft/foundrylocal && brew install foundrylocal` (macOS). Details finden Sie im [Einstiegsleitfaden](https://learn.microsoft.com/en-us/azure/foundry-local/get-started). |
+| **Laufzeitumgebung** | **Python 3.9+** und/oder **.NET 9.0+** und/oder **Node.js 18+** |
| **Git** | Zum Klonen dieses Repositories |
---
@@ -54,11 +82,11 @@ cd foundry-local-lab
foundry model list # Verfügbare Modelle auflisten
foundry model run phi-3.5-mini # Starten Sie einen interaktiven Chat
-# 3. Wählen Sie Ihre Sprachspur (siehe Teil 2 Labor für die vollständige Einrichtung)
+# 3. Wählen Sie Ihre Sprachspur (siehe Teil 2 Labor für vollständige Einrichtung)
```
-| Sprache | Schnellstart |
-|---------|--------------|
+| Sprache | Schneller Einstieg |
+|----------|-------------|
| **Python** | `cd python && pip install -r requirements.txt && python foundry-local.py` |
| **C#** | `cd csharp && dotnet run` |
| **JavaScript** | `cd javascript && npm install && node foundry-local.mjs` |
@@ -67,24 +95,24 @@ foundry model run phi-3.5-mini # Starten Sie einen interaktiven Chat
## Workshop-Teile
-### Teil 1: Einstieg in Foundry Local
+### Teil 1: Einstieg mit Foundry Local
**Lab-Anleitung:** [`labs/part1-getting-started.md`](labs/part1-getting-started.md)
- Was ist Foundry Local und wie es funktioniert
- Installation der CLI unter Windows und macOS
- Modelle erkunden – auflisten, herunterladen, ausführen
-- Modell-Aliase und dynamische Ports verstehen
+- Verständnis von Modell-Aliasen und dynamischen Ports
---
-### Teil 2: Foundry Local SDK im Detail
+### Teil 2: Foundry Local SDK Deep Dive
**Lab-Anleitung:** [`labs/part2-foundry-local-sdk.md`](labs/part2-foundry-local-sdk.md)
-- Warum man für die Anwendungsentwicklung die SDK statt der CLI nutzt
+- Warum die SDK gegenüber der CLI für App-Entwicklung bevorzugt wird
- Vollständige SDK API-Referenz für Python, JavaScript und C#
-- Service-Management, Katalogdurchsuchung, Modelllebenszyklus (Download, Laden, Entladen)
+- Service-Management, Katalog-Durchsicht, Modelllebenszyklus (Download, Laden, Entladen)
- Schnellstart-Patterns: Python-Konstruktor-Bootstrap, JavaScript `init()`, C# `CreateAsync()`
- `FoundryModelInfo` Metadaten, Aliase und hardwareoptimale Modellauswahl
@@ -94,16 +122,16 @@ foundry model run phi-3.5-mini # Starten Sie einen interaktiven Chat
**Lab-Anleitung:** [`labs/part3-sdk-and-apis.md`](labs/part3-sdk-and-apis.md)
-- Verbindung zu Foundry Local aus Python, JavaScript und C#
-- Verwendung des Foundry Local SDK zur programmatischen Steuerung des Services
-- Streaming von Chat-Antworten über die OpenAI-kompatible API
+- Verbindung zu Foundry Local von Python, JavaScript und C# herstellen
+- Verwaltung des Dienstes programmatisch mit dem Foundry Local SDK
+- Streaming-Chat-Completions über die OpenAI-kompatible API
- SDK Methodenreferenz für jede Sprache
-**Codebeispiele:**
+**Code-Beispiele:**
| Sprache | Datei | Beschreibung |
-|---------|-------|--------------|
-| Python | `python/foundry-local.py` | Basis-Streaming-Chat |
+|----------|------|-------------|
+| Python | `python/foundry-local.py` | Einfacher Streaming-Chat |
| C# | `csharp/BasicChat.cs` | Streaming-Chat mit .NET |
| JavaScript | `javascript/foundry-local.mjs` | Streaming-Chat mit Node.js |
@@ -113,54 +141,54 @@ foundry model run phi-3.5-mini # Starten Sie einen interaktiven Chat
**Lab-Anleitung:** [`labs/part4-rag-fundamentals.md`](labs/part4-rag-fundamentals.md)
-- Was ist RAG und warum ist es wichtig
-- Aufbau einer In-Memory Wissensbasis
-- Schlagwort-basierte Suche mit Bewertung
-- Komposition geerdeter Systems-Prompts
-- Ausführen einer kompletten RAG-Pipeline lokal
+- Was ist RAG und warum es wichtig ist
+- Aufbau einer In-Memory-Wissensbasis
+- Stichwort-Überlappung bei der Abfrage mit Bewertung
+- Zusammenstellung fundierter System-Prompts
+- Ausführung einer vollständigen RAG-Pipeline direkt auf dem Gerät
-**Codebeispiele:**
+**Code-Beispiele:**
| Sprache | Datei |
-|---------|-------|
+|----------|------|
| Python | `python/foundry-local-rag.py` |
| C# | `csharp/RagPipeline.cs` |
| JavaScript | `javascript/foundry-local-rag.mjs` |
---
-### Teil 5: KI-Agenten bauen
+### Teil 5: KI-Agenten erstellen
**Lab-Anleitung:** [`labs/part5-single-agents.md`](labs/part5-single-agents.md)
-- Was ist ein KI-Agent (gegenüber einem reinen LLM-Aufruf)
+- Was ist ein KI-Agent (im Vergleich zu einem reinen LLM-Aufruf)
- Das `ChatAgent`-Pattern und das Microsoft Agent Framework
-- Systemanweisungen, Personas und Mehrfachdialoge
+- Systemanweisungen, Personas und mehrstufige Dialoge
- Strukturierte Ausgabe (JSON) von Agenten
-**Codebeispiele:**
+**Code-Beispiele:**
| Sprache | Datei | Beschreibung |
-|---------|-------|--------------|
+|----------|------|-------------|
| Python | `python/foundry-local-with-agf.py` | Einzelner Agent mit Agent Framework |
| C# | `csharp/SingleAgent.cs` | Einzelner Agent (ChatAgent-Pattern) |
| JavaScript | `javascript/foundry-local-with-agent.mjs` | Einzelner Agent (ChatAgent-Pattern) |
---
-### Teil 6: Multi-Agent-Workflows
+### Teil 6: Multi-Agent-Arbeitsabläufe
**Lab-Anleitung:** [`labs/part6-multi-agent-workflows.md`](labs/part6-multi-agent-workflows.md)
-- Multi-Agent-Pipelines: Researcher → Writer → Editor
+- Multi-Agent-Pipelines: Forscher → Autor → Redakteur
- Sequenzielle Orchestrierung und Feedback-Schleifen
-- Gemeinsame Konfiguration und strukturierte Übergaben
+- Gemeinsame Konfiguration und strukturierte Übergabe
- Eigene Multi-Agent-Workflows entwerfen
-**Codebeispiele:**
+**Code-Beispiele:**
| Sprache | Datei | Beschreibung |
-|---------|-------|--------------|
+|----------|------|-------------|
| Python | `python/foundry-local-multi-agent.py` | Drei-Agenten-Pipeline |
| C# | `csharp/MultiAgent.cs` | Drei-Agenten-Pipeline |
| JavaScript | `javascript/foundry-local-multi-agent.mjs` | Drei-Agenten-Pipeline |
@@ -171,127 +199,127 @@ foundry model run phi-3.5-mini # Starten Sie einen interaktiven Chat
**Lab-Anleitung:** [`labs/part7-zava-creative-writer.md`](labs/part7-zava-creative-writer.md)
-- Eine produktionsreife Multi-Agent-App mit 4 spezialisierten Agenten
-- Sequenzielle Pipeline mit evaluatorengestützten Feedback-Schleifen
+- Eine produktionsreife Multi-Agent-Anwendung mit 4 spezialisierten Agenten
+- Sequenzielle Pipeline mit bewertungsgetriebenen Feedback-Schleifen
- Streaming-Ausgabe, Produktsuche im Katalog, strukturierte JSON-Übergaben
-- Vollständige Implementierung in Python (FastAPI), JavaScript (Node.js CLI) und C# (.NET Konsolen-App)
+- Volle Implementierung in Python (FastAPI), JavaScript (Node.js CLI) und C# (Konsolenanwendung)
-**Codebeispiele:**
+**Code-Beispiele:**
| Sprache | Verzeichnis | Beschreibung |
-|---------|-------------|--------------|
+|----------|-----------|-------------|
| Python | `zava-creative-writer-local/src/api/` | FastAPI Webservice mit Orchestrator |
| JavaScript | `zava-creative-writer-local/src/javascript/` | Node.js CLI-Anwendung |
| C# | `zava-creative-writer-local/src/csharp/` | .NET 9 Konsolenanwendung |
---
-### Teil 8: Evaluation-gesteuerte Entwicklung
+### Teil 8: Bewertungsorientierte Entwicklung
**Lab-Anleitung:** [`labs/part8-evaluation-led-development.md`](labs/part8-evaluation-led-development.md)
-- Systematisches Evaluierungsframework für KI-Agenten mit Gold-Datensätzen aufbauen
-- Regelbasierte Prüfungen (Länge, Schlüsselwortabdeckung, verbotene Begriffe) + LLM-als-Richter Punktauswertung
-- Vergleich von Prompt-Varianten mit aggregierten Scorecards
-- Das Zava Editor Agent Pattern aus Teil 7 in eine Offline-Test-Suite erweitern
-- Python-, JavaScript- und C#-Tracks
+- Erstellung eines systematischen Evaluationsframeworks für KI-Agenten mit Gold-Datensätzen
+- Regelbasierte Checks (Länge, Stichwortabdeckung, verbotene Begriffe) + LLM-as-Judge-Bewertung
+- Nebeneinanderstellung von Prompt-Varianten mit aggregierten Scorecards
+- Erweiterung des Zava Editor Agent-Patterns aus Teil 7 zu einem Offline-Test-Toolkit
+- Python-, JavaScript- und C#-Spuren
-**Codebeispiele:**
+**Code-Beispiele:**
| Sprache | Datei | Beschreibung |
-|---------|-------|--------------|
-| Python | `python/foundry-local-eval.py` | Evaluierungsframework |
-| C# | `csharp/AgentEvaluation.cs` | Evaluierungsframework |
-| JavaScript | `javascript/foundry-local-eval.mjs` | Evaluierungsframework |
+|----------|------|-------------|
+| Python | `python/foundry-local-eval.py` | Evaluationsframework |
+| C# | `csharp/AgentEvaluation.cs` | Evaluationsframework |
+| JavaScript | `javascript/foundry-local-eval.mjs` | Evaluationsframework |
---
### Teil 9: Sprachtranskription mit Whisper
**Lab-Anleitung:** [`labs/part9-whisper-voice-transcription.md`](labs/part9-whisper-voice-transcription.md)
-
-- Sprach-zu-Text-Transkription mit lokal laufendem OpenAI Whisper
-- Datenschutzorientierte Audioverarbeitung – Audio verlässt nie Ihr Gerät
-- Python-, JavaScript- und C#-Tracks mit `client.audio.transcriptions.create()` (Python/JS) und `AudioClient.TranscribeAudioAsync()` (C#)
-- Enthält Zava-Themen-Audiodateien für praktische Übungen
+- Sprach-zu-Text-Transkription mit lokal ausgeführtem OpenAI Whisper
+- Datenschutzorientierte Audioverarbeitung – Audio verlässt das Gerät niemals
+- Python-, JavaScript- und C#-Beispiele mit `client.audio.transcriptions.create()` (Python/JS) und `AudioClient.TranscribeAudioAsync()` (C#)
+- Enthält Zava-Themenbeispiele mit Audiodateien zum praktischen Üben
**Codebeispiele:**
| Sprache | Datei | Beschreibung |
-|---------|-------|--------------|
-| Python | `python/foundry-local-whisper.py` | Whisper Sprachtranskription |
-| C# | `csharp/WhisperTranscription.cs` | Whisper Sprachtranskription |
-| JavaScript | `javascript/foundry-local-whisper.mjs` | Whisper Sprachtranskription |
+|----------|------|-------------|
+| Python | `python/foundry-local-whisper.py` | Whisper-Sprachtranskription |
+| C# | `csharp/WhisperTranscription.cs` | Whisper-Sprachtranskription |
+| JavaScript | `javascript/foundry-local-whisper.mjs` | Whisper-Sprachtranskription |
-> **Hinweis:** Dieses Labor verwendet das **Foundry Local SDK**, um das Whisper Modell programmatisch herunterzuladen und zu laden, und sendet dann Audio zur Transkription an den lokalen OpenAI-kompatiblen Endpunkt. Das Whisper Modell (`whisper`) ist im Foundry Local Katalog gelistet und läuft vollständig lokal – keine Cloud-API-Schlüssel oder Netzwerkzugriff erforderlich.
+> **Hinweis:** Dieses Labor verwendet das **Foundry Local SDK**, um das Whisper-Modell programmatisch herunterzuladen und zu laden, und sendet dann Audio zur Transkription an den lokalen OpenAI-kompatiblen Endpunkt. Das Whisper-Modell (`whisper`) ist im Foundry Local-Katalog gelistet und läuft vollständig lokal auf dem Gerät – keine Cloud-API-Schlüssel oder Netzwerkzugang erforderlich.
---
-### Teil 10: Nutzung von eigenen oder Hugging Face Modellen
+### Teil 10: Verwendung benutzerdefinierter oder Hugging Face-Modelle
-**Lab-Anleitung:** [`labs/part10-custom-models.md`](labs/part10-custom-models.md)
+**Labormanual:** [`labs/part10-custom-models.md`](labs/part10-custom-models.md)
-- Kompilierung von Hugging Face Modellen ins optimierte ONNX-Format mit dem ONNX Runtime GenAI Model Builder
-- Hardware-spezifische Kompilierung (CPU, NVIDIA GPU, DirectML, WebGPU) und Quantisierung (int4, fp16, bf16)
-- Erstellung von Chat-Vorlagen-Konfigurationsdateien für Foundry Local
-- Hinzufügen kompilierter Modelle zum Foundry Local Cache
-- Ausführen eigener Modelle über CLI, REST API und OpenAI SDK
+- Kompilierung von Hugging Face-Modellen in optimiertes ONNX-Format mit dem ONNX Runtime GenAI Model Builder
+- Gerätespezifische Kompilierung (CPU, NVIDIA GPU, DirectML, WebGPU) und Quantisierung (int4, fp16, bf16)
+- Erstellen von Chat-Vorlagenkonfigurationsdateien für Foundry Local
+- Hinzufügen kompilierter Modelle zum Foundry Local-Cache
+- Ausführen benutzerdefinierter Modelle über CLI, REST API und OpenAI SDK
- Referenzbeispiel: End-to-End-Kompilierung von Qwen/Qwen3-0.6B
---
### Teil 11: Tool-Calling mit lokalen Modellen
-**Lab-Anleitung:** [`labs/part11-tool-calling.md`](labs/part11-tool-calling.md)
+**Labormanual:** [`labs/part11-tool-calling.md`](labs/part11-tool-calling.md)
-- Lokale Modelle zum Aufrufen externer Funktionen befähigen (Tool-/Funktionsaufrufe)
-- Definition von Werkzeug-Schemas im OpenAI Function-Calling-Format
-- Umgang mit Multi-Turn-Konversationen für Tool-Calls
-- Lokale Ausführung von Tool-Aufrufen und Rückgabe der Ergebnisse zum Modell
+- Ermöglichen, dass lokale Modelle externe Funktionen aufrufen (Tool-/Funktionsaufruf)
+- Definieren von Toolschemas im OpenAI-Funktionsaufruf-Format
+- Handhabung des mehrstufigen Tool-Calling-Konversationsablaufs
+- Ausführen von Tool-Aufrufen lokal und Rückgabe der Ergebnisse an das Modell
- Auswahl des passenden Modells für Tool-Calling-Szenarien (Qwen 2.5, Phi-4-mini)
-- Nutzung des nativen `ChatClient` der SDK für Tool-Calling (JavaScript)
+- Nutzung des SDK-eigenen `ChatClient` für Tool-Calling (JavaScript)
**Codebeispiele:**
| Sprache | Datei | Beschreibung |
-|---------|-------|--------------|
+|----------|------|-------------|
| Python | `python/foundry-local-tool-calling.py` | Tool-Calling mit Wetter-/Bevölkerungstools |
| C# | `csharp/ToolCalling.cs` | Tool-Calling mit .NET |
| JavaScript | `javascript/foundry-local-tool-calling.mjs` | Tool-Calling mit ChatClient |
---
-### Teil 12: Web-UI für den Zava Creative Writer erstellen
+### Teil 12: Aufbau einer Web-Benutzeroberfläche für den Zava Creative Writer
-**Lab-Anleitung:** [`labs/part12-zava-ui.md`](labs/part12-zava-ui.md)
+**Labormanual:** [`labs/part12-zava-ui.md`](labs/part12-zava-ui.md)
-- Browserbasierte Frontend-Ergänzung für den Zava Creative Writer
-- Gemeinsame UI-Auslieferung aus Python (FastAPI), JavaScript (Node.js HTTP) und C# (ASP.NET Core)
-- Nutzung von Streaming NDJSON im Browser mit Fetch API und ReadableStream
-- Live-Agent Status-Badges und Echtzeit-Text-Streaming von Artikeln
+- Hinzufügen eines browserbasierten Frontends zum Zava Creative Writer
+- Bereitstellung der gemeinsamen UI über Python (FastAPI), JavaScript (Node.js HTTP) und C# (ASP.NET Core)
+- Verwendung von Streaming-NDJSON im Browser mit der Fetch API und ReadableStream
+- Live-Agent-Statusanzeigen und Echtzeit-Textstreaming von Artikeln
**Code (gemeinsame UI):**
| Datei | Beschreibung |
-|-------|--------------|
+|------|-------------|
| `zava-creative-writer-local/ui/index.html` | Seitenlayout |
| `zava-creative-writer-local/ui/style.css` | Styling |
-| `zava-creative-writer-local/ui/app.js` | Stream-Reader und DOM-Aktualisierungslogik |
+| `zava-creative-writer-local/ui/app.js` | Stream-Reader- und DOM-Aktualisierungslogik |
**Backend-Ergänzungen:**
| Sprache | Datei | Beschreibung |
-|---------|-------|--------------|
-| Python | `zava-creative-writer-local/src/api/main.py` | Aktualisiert zur Auslieferung der statischen UI |
-| JavaScript | `zava-creative-writer-local/src/javascript/server.mjs` | Neuer HTTP-Server, der den Orchestrator umhüllt |
+|----------|------|-------------|
+| Python | `zava-creative-writer-local/src/api/main.py` | Aktualisiert zur Bereitstellung statischer UI |
+| JavaScript | `zava-creative-writer-local/src/javascript/server.mjs` | Neuer HTTP-Server, der den Orchestrator umschließt |
| C# | `zava-creative-writer-local/src/csharp-web/Program.cs` | Neues ASP.NET Core Minimal-API-Projekt |
---
### Teil 13: Workshop abgeschlossen
-**Lab-Anleitung:** [`labs/part13-workshop-complete.md`](labs/part13-workshop-complete.md)
-- Zusammenfassung von allem, was Sie in allen 12 Teilen aufgebaut haben
+**Labormanual:** [`labs/part13-workshop-complete.md`](labs/part13-workshop-complete.md)
+
+- Zusammenfassung aller in den 12 Teilen erstellten Inhalte
- Weitere Ideen zur Erweiterung Ihrer Anwendungen
- Links zu Ressourcen und Dokumentation
@@ -381,7 +409,7 @@ foundry model run phi-3.5-mini # Starten Sie einen interaktiven Chat
| Ressource | Link |
|----------|------|
-| Foundry Local Website | [foundrylocal.ai](https://foundrylocal.ai) |
+| Foundry Local Webseite | [foundrylocal.ai](https://foundrylocal.ai) |
| Modellkatalog | [foundrylocal.ai/models](https://www.foundrylocal.ai/models) |
| Foundry Local GitHub | [github.com/microsoft/foundry-local](https://github.com/microsoft/foundry-local) |
| Einstiegshilfe | [Microsoft Learn - Foundry Local](https://learn.microsoft.com/en-us/azure/foundry-local/get-started) |
@@ -394,8 +422,15 @@ foundry model run phi-3.5-mini # Starten Sie einen interaktiven Chat
## Lizenz
-Dieses Workshop-Material wird zu Ausbildungszwecken bereitgestellt.
+Dieses Workshop-Material wird zu Bildungszwecken bereitgestellt.
+
+---
+
+**Viel Erfolg beim Bauen! 🚀**
---
-**Viel Erfolg beim Bauen! 🚀**
\ No newline at end of file
+
+**Haftungsausschluss**:
+Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir Genauigkeit anstreben, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache ist als maßgebliche Quelle zu betrachten. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Verwendung dieser Übersetzung entstehen.
+
\ No newline at end of file
diff --git a/translations/es/.co-op-translator.json b/translations/es/.co-op-translator.json
index ca20d6b..ee73b28 100644
--- a/translations/es/.co-op-translator.json
+++ b/translations/es/.co-op-translator.json
@@ -18,8 +18,8 @@
"language_code": "es"
},
"README.md": {
- "original_hash": "0b61923b9eede59c8981d411f7ed9b50",
- "translation_date": "2026-04-20T15:24:48+00:00",
+ "original_hash": "b0ed8bccef85263eafdc2d2432d3ca19",
+ "translation_date": "2026-04-24T10:40:37+00:00",
"source_file": "README.md",
"language_code": "es"
},
diff --git a/translations/es/README.md b/translations/es/README.md
index b1dca52..43d1c8d 100644
--- a/translations/es/README.md
+++ b/translations/es/README.md
@@ -2,48 +2,76 @@
-# Taller Foundry Local - Construye aplicaciones de IA en el dispositivo
+# Taller Foundry Local - Construye Aplicaciones de IA en el Dispositivo
Un taller práctico para ejecutar modelos de lenguaje en tu propia máquina y construir aplicaciones inteligentes con [Foundry Local](https://foundrylocal.ai) y el [Microsoft Agent Framework](https://learn.microsoft.com/en-us/agent-framework/).
-> **¿Qué es Foundry Local?** Foundry Local es un entorno de ejecución ligero que te permite descargar, gestionar y servir modelos de lenguaje completamente en tu hardware. Expone una **API compatible con OpenAI** para que cualquier herramienta o SDK que use OpenAI pueda conectarse, sin necesidad de cuenta en la nube.
+> **¿Qué es Foundry Local?** Foundry Local es un entorno de ejecución ligero que te permite descargar, administrar y servir modelos de lenguaje completamente en tu hardware. Exponen una **API compatible con OpenAI** para que cualquier herramienta o SDK que soporte OpenAI pueda conectarse, sin necesidad de una cuenta en la nube.
+
+### 🌐 Soporte Multilingüe
+
+#### Compatible vía GitHub Action (Automatizado y Siempre Actualizado)
+
+
+[Árabe](../ar/README.md) | [Bengalí](../bn/README.md) | [Búlgaro](../bg/README.md) | [Birmano (Myanmar)](../my/README.md) | [Chino (Simplificado)](../zh-CN/README.md) | [Chino (Tradicional, Hong Kong)](../zh-HK/README.md) | [Chino (Tradicional, Macao)](../zh-MO/README.md) | [Chino (Tradicional, Taiwán)](../zh-TW/README.md) | [Croata](../hr/README.md) | [Checo](../cs/README.md) | [Danés](../da/README.md) | [Holandés](../nl/README.md) | [Estonio](../et/README.md) | [Finlandés](../fi/README.md) | [Francés](../fr/README.md) | [Alemán](../de/README.md) | [Griego](../el/README.md) | [Hebreo](../he/README.md) | [Hindi](../hi/README.md) | [Húngaro](../hu/README.md) | [Indonesio](../id/README.md) | [Italiano](../it/README.md) | [Japonés](../ja/README.md) | [Kannada](../kn/README.md) | [Jemer](../km/README.md) | [Coreano](../ko/README.md) | [Lituano](../lt/README.md) | [Malayo](../ms/README.md) | [Malayalam](../ml/README.md) | [Maratí](../mr/README.md) | [Nepalí](../ne/README.md) | [Pidgin Nigeriano](../pcm/README.md) | [Noruego](../no/README.md) | [Persa (Farsi)](../fa/README.md) | [Polaco](../pl/README.md) | [Portugués (Brasil)](../pt-BR/README.md) | [Portugués (Portugal)](../pt-PT/README.md) | [Punjabi (Gurmukhi)](../pa/README.md) | [Rumano](../ro/README.md) | [Ruso](../ru/README.md) | [Serbio (Cirílico)](../sr/README.md) | [Eslovaco](../sk/README.md) | [Esloveno](../sl/README.md) | [Español](./README.md) | [Swahili](../sw/README.md) | [Sueco](../sv/README.md) | [Tagalo (Filipino)](../tl/README.md) | [Tamil](../ta/README.md) | [Telugu](../te/README.md) | [Tailandés](../th/README.md) | [Turco](../tr/README.md) | [Ucraniano](../uk/README.md) | [Urdu](../ur/README.md) | [Vietnamita](../vi/README.md)
+
+> **¿Prefieres Clonar Localmente?**
+>
+> Este repositorio incluye más de 50 traducciones, lo que aumenta significativamente el tamaño de la descarga. Para clonar sin traducciones, utiliza sparse checkout:
+>
+> **Bash / macOS / Linux:**
+> ```bash
+> git clone --filter=blob:none --sparse https://github.com/microsoft-foundry/Foundry-Local-Lab.git
+> cd Foundry-Local-Lab
+> git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'
+> ```
+>
+> **CMD (Windows):**
+> ```cmd
+> git clone --filter=blob:none --sparse https://github.com/microsoft-foundry/Foundry-Local-Lab.git
+> cd Foundry-Local-Lab
+> git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"
+> ```
+>
+> Esto te proporciona todo lo necesario para completar el curso con una descarga mucho más rápida.
+
---
-## Objetivos de aprendizaje
+## Objetivos de Aprendizaje
Al final de este taller podrás:
| # | Objetivo |
-|---|-----------|
-| 1 | Instalar Foundry Local y gestionar modelos con la CLI |
+|---|----------|
+| 1 | Instalar Foundry Local y administrar modelos con la CLI |
| 2 | Dominar la API del SDK de Foundry Local para la gestión programática de modelos |
-| 3 | Conectarte al servidor de inferencia local usando los SDKs de Python, JavaScript y C# |
-| 4 | Construir una canalización de Generación Aumentada por Recuperación (RAG) que base las respuestas en tus propios datos |
+| 3 | Conectarte al servidor local de inferencia usando los SDKs de Python, JavaScript y C# |
+| 4 | Construir una canalización de Generación Aumentada por Recuperación (RAG) que fundamente respuestas en tus propios datos |
| 5 | Crear agentes de IA con instrucciones y personalidades persistentes |
| 6 | Orquestar flujos de trabajo multiagente con bucles de retroalimentación |
-| 7 | Explorar una aplicación de proyecto final para producción: el Escritor Creativo Zava |
-| 8 | Construir marcos de evaluación con conjuntos de datos de referencia y puntuación con LLM-como-juez |
-| 9 | Transcribir audio con Whisper - reconocimiento de voz a texto en el dispositivo usando Foundry Local SDK |
+| 7 | Explorar una aplicación capstone en producción: el Zava Creative Writer |
+| 8 | Construir marcos de evaluación con conjuntos de datos 'golden' y puntuaciones de LLM-como-juez |
+| 9 | Transcribir audio con Whisper – reconocimiento de voz a texto en el dispositivo usando Foundry Local SDK |
| 10 | Compilar y ejecutar modelos personalizados o de Hugging Face con ONNX Runtime GenAI y Foundry Local |
-| 11 | Permitir que los modelos locales llamen a funciones externas usando el patrón de llamada de herramientas |
-| 12 | Construir una UI basada en navegador para el Escritor Creativo Zava con streaming en tiempo real |
+| 11 | Permitir que modelos locales llamen a funciones externas con el patrón de llamadas a herramientas |
+| 12 | Construir una interfaz de usuario basada en navegador para Zava Creative Writer con streaming en tiempo real |
---
-## Requisitos previos
+## Requisitos Previos
| Requisito | Detalles |
-|-------------|---------|
-| **Hardware** | Mínimo 8 GB RAM (16 GB recomendado); CPU con soporte AVX2 o GPU compatible |
-| **Sistema operativo** | Windows 10/11 (x64/ARM), Windows Server 2025, o macOS 13+ |
-| **Foundry Local CLI** | Instalar con `winget install Microsoft.FoundryLocal` (Windows) o `brew tap microsoft/foundrylocal && brew install foundrylocal` (macOS). Consulta la [guía para comenzar](https://learn.microsoft.com/en-us/azure/foundry-local/get-started) para más detalles. |
+|-----------|----------|
+| **Hardware** | Mínimo 8 GB de RAM (16 GB recomendado); CPU compatible con AVX2 o GPU soportada |
+| **SO** | Windows 10/11 (x64/ARM), Windows Server 2025, o macOS 13+ |
+| **Foundry Local CLI** | Instalar vía `winget install Microsoft.FoundryLocal` (Windows) o `brew tap microsoft/foundrylocal && brew install foundrylocal` (macOS). Consulta la [guía para empezar](https://learn.microsoft.com/en-us/azure/foundry-local/get-started) para más detalles. |
| **Entorno de ejecución** | **Python 3.9+** y/o **.NET 9.0+** y/o **Node.js 18+** |
| **Git** | Para clonar este repositorio |
---
-## Comenzando
+## Primeros Pasos
```bash
# 1. Clona el repositorio
@@ -54,39 +82,39 @@ cd foundry-local-lab
foundry model list # Lista los modelos disponibles
foundry model run phi-3.5-mini # Inicia un chat interactivo
-# 3. Elige tu pista de idioma (consulta el laboratorio de la Parte 2 para la configuración completa)
+# 3. Elige tu ruta de idioma (consulta el laboratorio Parte 2 para la configuración completa)
```
-| Lenguaje | Inicio rápido |
-|----------|-------------|
+| Lenguaje | Inicio Rápido |
+|----------|---------------|
| **Python** | `cd python && pip install -r requirements.txt && python foundry-local.py` |
| **C#** | `cd csharp && dotnet run` |
| **JavaScript** | `cd javascript && npm install && node foundry-local.mjs` |
---
-## Partes del taller
+## Partes del Taller
-### Parte 1: Comenzando con Foundry Local
+### Parte 1: Primeros Pasos con Foundry Local
**Guía del laboratorio:** [`labs/part1-getting-started.md`](labs/part1-getting-started.md)
- Qué es Foundry Local y cómo funciona
- Instalación de la CLI en Windows y macOS
-- Exploración de modelos - listado, descarga, ejecución
-- Comprendiendo alias de modelos y puertos dinámicos
+- Exploración de modelos: listar, descargar, ejecutar
+- Entender alias de modelos y puertos dinámicos
---
-### Parte 2: Profundización en Foundry Local SDK
+### Parte 2: Profundización en el SDK de Foundry Local
**Guía del laboratorio:** [`labs/part2-foundry-local-sdk.md`](labs/part2-foundry-local-sdk.md)
-- Por qué usar el SDK en lugar de la CLI para desarrollo de aplicaciones
-- Referencia completa de la API del SDK para Python, JavaScript y C#
-- Gestión del servicio, exploración del catálogo, ciclo de vida del modelo (descargar, cargar, descargar de memoria)
-- Patrones de inicio rápido: constructor de Python, `init()` en JavaScript, `CreateAsync()` en C#
-- Metadatos `FoundryModelInfo`, alias y selección de modelo óptima para hardware
+- Por qué usar el SDK en lugar de la CLI para el desarrollo de aplicaciones
+- Referencia completa de la API SDK para Python, JavaScript y C#
+- Gestión del servicio, exploración de catálogo, ciclo de vida del modelo (descargar, cargar, descargar)
+- Patrones de inicio rápido: bootstrap del constructor Python, `init()` de JavaScript, `CreateAsync()` de C#
+- Metadatos `FoundryModelInfo`, alias, y selección de modelo óptima para el hardware
---
@@ -94,16 +122,16 @@ foundry model run phi-3.5-mini # Inicia un chat interactivo
**Guía del laboratorio:** [`labs/part3-sdk-and-apis.md`](labs/part3-sdk-and-apis.md)
-- Conectarse a Foundry Local desde Python, JavaScript y C#
-- Uso del SDK para gestionar el servicio programáticamente
-- Completados de chat en streaming a través de la API compatible con OpenAI
+- Conexión a Foundry Local desde Python, JavaScript y C#
+- Uso del SDK de Foundry Local para administrar el servicio de forma programática
+- Completaciones de chat en streaming vía la API compatible con OpenAI
- Referencia de métodos del SDK para cada lenguaje
**Ejemplos de código:**
| Lenguaje | Archivo | Descripción |
-|----------|------|-------------|
-| Python | `python/foundry-local.py` | Chat básico con streaming |
+|----------|---------|-------------|
+| Python | `python/foundry-local.py` | Chat básico en streaming |
| C# | `csharp/BasicChat.cs` | Chat en streaming con .NET |
| JavaScript | `javascript/foundry-local.mjs` | Chat en streaming con Node.js |
@@ -114,92 +142,92 @@ foundry model run phi-3.5-mini # Inicia un chat interactivo
**Guía del laboratorio:** [`labs/part4-rag-fundamentals.md`](labs/part4-rag-fundamentals.md)
- Qué es RAG y por qué es importante
-- Construir una base de conocimiento en memoria
-- Recuperación por solapamiento de palabras clave con puntuación
-- Composición de indicaciones sistemáticas fundamentadas
-- Ejecutar una canalización RAG completa en el dispositivo
+- Construcción de una base de conocimiento en memoria
+- Recuperación por superposición de palabras clave con puntuación
+- Composición de prompts de sistema fundamentados
+- Ejecución completa de un pipeline RAG en el dispositivo
**Ejemplos de código:**
| Lenguaje | Archivo |
-|----------|------|
+|----------|---------|
| Python | `python/foundry-local-rag.py` |
| C# | `csharp/RagPipeline.cs` |
| JavaScript | `javascript/foundry-local-rag.mjs` |
---
-### Parte 5: Construcción de Agentes de IA
+### Parte 5: Construyendo Agentes de IA
**Guía del laboratorio:** [`labs/part5-single-agents.md`](labs/part5-single-agents.md)
-- Qué es un agente de IA (vs. una llamada directa a LLM)
+- Qué es un agente de IA (vs. una llamada directa a un LLM)
- Patrón `ChatAgent` y Microsoft Agent Framework
-- Instrucciones de sistema, personalidades y conversaciones multi-turno
-- Salida estructurada (JSON) desde agentes
+- Instrucciones del sistema, personalidades y conversaciones de múltiples turnos
+- Salida estructurada (JSON) de agentes
**Ejemplos de código:**
| Lenguaje | Archivo | Descripción |
-|----------|------|-------------|
+|----------|---------|-------------|
| Python | `python/foundry-local-with-agf.py` | Agente único con Agent Framework |
| C# | `csharp/SingleAgent.cs` | Agente único (patrón ChatAgent) |
| JavaScript | `javascript/foundry-local-with-agent.mjs` | Agente único (patrón ChatAgent) |
---
-### Parte 6: Flujos de Trabajo Multi-Agente
+### Parte 6: Flujos de Trabajo Multiagente
**Guía del laboratorio:** [`labs/part6-multi-agent-workflows.md`](labs/part6-multi-agent-workflows.md)
-- Canalizaciones multiagente: Investigador → Escritor → Editor
+- Pipelines multiagente: Investigador → Escritor → Editor
- Orquestación secuencial y bucles de retroalimentación
- Configuración compartida y entregas estructuradas
-- Diseña tu propio flujo de trabajo multiagente
+- Diseñar tu propio flujo de trabajo multiagente
**Ejemplos de código:**
| Lenguaje | Archivo | Descripción |
-|----------|------|-------------|
-| Python | `python/foundry-local-multi-agent.py` | Canalización de tres agentes |
-| C# | `csharp/MultiAgent.cs` | Canalización de tres agentes |
-| JavaScript | `javascript/foundry-local-multi-agent.mjs` | Canalización de tres agentes |
+|----------|---------|-------------|
+| Python | `python/foundry-local-multi-agent.py` | Pipeline de tres agentes |
+| C# | `csharp/MultiAgent.cs` | Pipeline de tres agentes |
+| JavaScript | `javascript/foundry-local-multi-agent.mjs` | Pipeline de tres agentes |
---
-### Parte 7: Escritor Creativo Zava - Aplicación Final
+### Parte 7: Zava Creative Writer - Aplicación Capstone
**Guía del laboratorio:** [`labs/part7-zava-creative-writer.md`](labs/part7-zava-creative-writer.md)
-- App multiagente estilo producción con 4 agentes especializados
-- Pipeline secuencial con bucles de retroalimentación guiados por evaluadores
-- Salida en streaming, búsqueda en catálogo de productos, entregas JSON estructuradas
+- Aplicación multiagente estilo producción con 4 agentes especializados
+- Pipeline secuencial con bucles de retroalimentación dirigidos por evaluadores
+- Salida en streaming, búsqueda de catálogo de productos, entregas JSON estructuradas
- Implementación completa en Python (FastAPI), JavaScript (CLI Node.js) y C# (consola .NET)
**Ejemplos de código:**
| Lenguaje | Directorio | Descripción |
-|----------|-----------|-------------|
+|----------|------------|-------------|
| Python | `zava-creative-writer-local/src/api/` | Servicio web FastAPI con orquestador |
| JavaScript | `zava-creative-writer-local/src/javascript/` | Aplicación CLI Node.js |
| C# | `zava-creative-writer-local/src/csharp/` | Aplicación consola .NET 9 |
---
-### Parte 8: Desarrollo Orientado a la Evaluación
+### Parte 8: Desarrollo Guiado por Evaluación
**Guía del laboratorio:** [`labs/part8-evaluation-led-development.md`](labs/part8-evaluation-led-development.md)
-- Construir un marco sistemático de evaluación para agentes de IA usando datasets dorados
-- Verificaciones basadas en reglas (longitud, cobertura de palabras clave, términos prohibidos) + puntuación con LLM-como-juez
-- Comparación lado a lado de variantes de indicaciones con tarjetas de puntajes agregados
-- Extiende el patrón Zava Editor visto en la Parte 7 a una suite de pruebas offline
+- Construir un marco sistemático de evaluación para agentes de IA usando conjuntos de datos `golden`
+- Controles basados en reglas (longitud, cobertura de palabras clave, términos prohibidos) + puntuación con LLM-como-juez
+- Comparación lado a lado de variantes de prompts con tablas de puntuación agregadas
+- Extiende el patrón del agente Editor de Zava de la Parte 7 hacia un suite de pruebas offline
- Rutas para Python, JavaScript y C#
**Ejemplos de código:**
| Lenguaje | Archivo | Descripción |
-|----------|------|-------------|
+|----------|---------|-------------|
| Python | `python/foundry-local-eval.py` | Marco de evaluación |
| C# | `csharp/AgentEvaluation.cs` | Marco de evaluación |
| JavaScript | `javascript/foundry-local-eval.mjs` | Marco de evaluación |
@@ -209,90 +237,90 @@ foundry model run phi-3.5-mini # Inicia un chat interactivo
### Parte 9: Transcripción de Voz con Whisper
**Guía del laboratorio:** [`labs/part9-whisper-voice-transcription.md`](labs/part9-whisper-voice-transcription.md)
-
- Transcripción de voz a texto usando OpenAI Whisper ejecutándose localmente
-- Procesamiento de audio con privacidad - el audio nunca sale de tu dispositivo
-- Rutas para Python, JavaScript y C# con `client.audio.transcriptions.create()` (Python/JS) y `AudioClient.TranscribeAudioAsync()` (C#)
-- Incluye archivos de audio temáticos de Zava para práctica
+- Procesamiento de audio priorizando la privacidad: el audio nunca sale de tu dispositivo
+- Rutas en Python, JavaScript y C# con `client.audio.transcriptions.create()` (Python/JS) y `AudioClient.TranscribeAudioAsync()` (C#)
+- Incluye archivos de audio de ejemplo con temática Zava para práctica práctica
**Ejemplos de código:**
| Lenguaje | Archivo | Descripción |
-|----------|------|-------------|
-| Python | `python/foundry-local-whisper.py` | Transcripción de voz con Whisper |
-| C# | `csharp/WhisperTranscription.cs` | Transcripción de voz con Whisper |
-| JavaScript | `javascript/foundry-local-whisper.mjs` | Transcripción de voz con Whisper |
+|----------|---------|-------------|
+| Python | `python/foundry-local-whisper.py` | Transcripción de voz Whisper |
+| C# | `csharp/WhisperTranscription.cs` | Transcripción de voz Whisper |
+| JavaScript | `javascript/foundry-local-whisper.mjs` | Transcripción de voz Whisper |
-> **Nota:** Este laboratorio usa el **Foundry Local SDK** para descargar y cargar programáticamente el modelo Whisper, luego envía audio al endpoint local compatible con OpenAI para transcripción. El modelo Whisper (`whisper`) está listado en el catálogo de Foundry Local y corre enteramente en dispositivo, sin necesidad de claves API en la nube o acceso a la red.
+> **Nota:** Este laboratorio usa el **Foundry Local SDK** para descargar y cargar programáticamente el modelo Whisper, luego envía audio al endpoint local compatible con OpenAI para transcripción. El modelo Whisper (`whisper`) está listado en el catálogo de Foundry Local y se ejecuta totalmente en el dispositivo — no se requieren claves de API en la nube ni acceso a la red.
---
-### Parte 10: Uso de Modelos Personalizados o de Hugging Face
+### Parte 10: Uso de modelos personalizados o Hugging Face
**Guía del laboratorio:** [`labs/part10-custom-models.md`](labs/part10-custom-models.md)
-- Compilar modelos Hugging Face a formato ONNX optimizado usando el compilador ONNX Runtime GenAI
+- Compilar modelos Hugging Face a formato ONNX optimizado usando el compilador de modelos GenAI de ONNX Runtime
- Compilación específica para hardware (CPU, GPU NVIDIA, DirectML, WebGPU) y cuantización (int4, fp16, bf16)
-- Crear archivos de configuración de plantilla para chat en Foundry Local
-- Añadir modelos compilados a la caché de Foundry Local
-- Ejecutar modelos personalizados vía CLI, API REST y SDK OpenAI
-- Ejemplo de referencia: compilación completa Qwen/Qwen3-0.6B
+- Creación de archivos de configuración de plantillas de chat para Foundry Local
+- Agregar modelos compilados a la caché de Foundry Local
+- Ejecutar modelos personalizados mediante CLI, API REST y SDK de OpenAI
+- Ejemplo de referencia: compilación de Qwen/Qwen3-0.6B de extremo a extremo
---
-### Parte 11: Llamada a Herramientas con Modelos Locales
+### Parte 11: Llamada a herramientas con modelos locales
**Guía del laboratorio:** [`labs/part11-tool-calling.md`](labs/part11-tool-calling.md)
- Permitir que modelos locales llamen a funciones externas (llamadas a herramientas/funciones)
-- Definir esquemas de herramientas usando el formato de llamada de funciones OpenAI
-- Gestionar el flujo de conversación de múltiples turnos para llamadas de herramientas
+- Definir esquemas de herramientas usando el formato de llamada a funciones de OpenAI
+- Manejar el flujo de conversación de multi-turno para llamadas a herramientas
- Ejecutar llamadas a herramientas localmente y devolver resultados al modelo
-- Elegir el modelo correcto para escenarios de llamadas a herramientas (Qwen 2.5, Phi-4-mini)
-- Usar el `ChatClient` nativo del SDK para llamadas a herramientas (JavaScript)
+- Elegir el modelo adecuado para escenarios de llamada a herramientas (Qwen 2.5, Phi-4-mini)
+- Usar el `ChatClient` nativo del SDK para llamada a herramientas (JavaScript)
**Ejemplos de código:**
| Lenguaje | Archivo | Descripción |
-|----------|------|-------------|
-| Python | `python/foundry-local-tool-calling.py` | Llamadas a herramientas con herramientas de clima/población |
-| C# | `csharp/ToolCalling.cs` | Llamadas a herramientas con .NET |
-| JavaScript | `javascript/foundry-local-tool-calling.mjs` | Llamadas a herramientas con ChatClient |
+|----------|---------|-------------|
+| Python | `python/foundry-local-tool-calling.py` | Llamada a herramientas con aplicaciones de clima/población |
+| C# | `csharp/ToolCalling.cs` | Llamada a herramientas con .NET |
+| JavaScript | `javascript/foundry-local-tool-calling.mjs` | Llamada a herramientas con ChatClient |
---
-### Parte 12: Construcción de una UI Web para el Escritor Creativo Zava
+### Parte 12: Crear una interfaz web para el Zava Creative Writer
**Guía del laboratorio:** [`labs/part12-zava-ui.md`](labs/part12-zava-ui.md)
-- Añadir una interfaz de usuario en navegador para el Escritor Creativo Zava
-- Servir la UI compartida desde Python (FastAPI), JavaScript (HTTP Node.js) y C# (ASP.NET Core)
+- Añadir un front-end basado en navegador para el Zava Creative Writer
+- Servir la UI compartida desde Python (FastAPI), JavaScript (Node.js HTTP) y C# (ASP.NET Core)
- Consumir NDJSON en streaming en el navegador con Fetch API y ReadableStream
-- Indicadores de estado en vivo del agente y streaming en tiempo real del texto del artículo
+- Insignias de estado de agentes en vivo y transmisión en tiempo real del texto del artículo
**Código (UI compartida):**
-| Archivo | Descripción |
-|------|-------------|
-| `zava-creative-writer-local/ui/index.html` | Diseño de página |
-| `zava-creative-writer-local/ui/style.css` | Estilos |
-| `zava-creative-writer-local/ui/app.js` | Lector de stream y lógica de actualización del DOM |
+| Archivo | Descripción |
+|--------------------------------------|---------------------|
+| `zava-creative-writer-local/ui/index.html` | Diseño de la página |
+| `zava-creative-writer-local/ui/style.css` | Estilos |
+| `zava-creative-writer-local/ui/app.js` | Lógica de lectura de stream y actualización del DOM |
-**Adiciones backend:**
+**Adiciones al backend:**
-| Lenguaje | Archivo | Descripción |
-|----------|------|-------------|
-| Python | `zava-creative-writer-local/src/api/main.py` | Actualizado para servir UI estática |
+| Lenguaje | Archivo | Descripción |
+|----------|-----------------------------------------|----------------------------|
+| Python | `zava-creative-writer-local/src/api/main.py` | Actualizado para servir UI estática |
| JavaScript | `zava-creative-writer-local/src/javascript/server.mjs` | Nuevo servidor HTTP que envuelve al orquestador |
-| C# | `zava-creative-writer-local/src/csharp-web/Program.cs` | Nuevo proyecto API minimalista ASP.NET Core |
+| C# | `zava-creative-writer-local/src/csharp-web/Program.cs` | Nuevo proyecto mínimo API ASP.NET Core |
---
### Parte 13: Taller completado
+
**Guía del laboratorio:** [`labs/part13-workshop-complete.md`](labs/part13-workshop-complete.md)
-- Resumen de todo lo que ha construido a lo largo de las 12 partes
-- Más ideas para ampliar sus aplicaciones
+- Resumen de todo lo construido en las 12 partes
+- Ideas adicionales para extender tus aplicaciones
- Enlaces a recursos y documentación
---
@@ -380,12 +408,12 @@ foundry model run phi-3.5-mini # Inicia un chat interactivo
## Recursos
| Recurso | Enlace |
-|----------|------|
-| Sitio web de Foundry Local | [foundrylocal.ai](https://foundrylocal.ai) |
+|---------|--------|
+| Sitio web Foundry Local | [foundrylocal.ai](https://foundrylocal.ai) |
| Catálogo de modelos | [foundrylocal.ai/models](https://www.foundrylocal.ai/models) |
-| GitHub de Foundry Local | [github.com/microsoft/foundry-local](https://github.com/microsoft/foundry-local) |
-| Guía para comenzar | [Microsoft Learn - Foundry Local](https://learn.microsoft.com/en-us/azure/foundry-local/get-started) |
-| Referencia del SDK de Foundry Local | [Microsoft Learn - SDK Reference](https://learn.microsoft.com/en-us/azure/foundry-local/reference/reference-sdk) |
+| Foundry Local GitHub | [github.com/microsoft/foundry-local](https://github.com/microsoft/foundry-local) |
+| Guía de inicio | [Microsoft Learn - Foundry Local](https://learn.microsoft.com/en-us/azure/foundry-local/get-started) |
+| Referencia SDK Foundry Local | [Microsoft Learn - SDK Reference](https://learn.microsoft.com/en-us/azure/foundry-local/reference/reference-sdk) |
| Microsoft Agent Framework | [Microsoft Learn - Agent Framework](https://learn.microsoft.com/en-us/agent-framework/) |
| OpenAI Whisper | [github.com/openai/whisper](https://github.com/openai/whisper) |
| ONNX Runtime GenAI | [github.com/microsoft/onnxruntime-genai](https://github.com/microsoft/onnxruntime-genai) |
@@ -394,8 +422,15 @@ foundry model run phi-3.5-mini # Inicia un chat interactivo
## Licencia
-Este material del taller se proporciona con fines educativos.
+Este material del taller se proporciona para fines educativos.
+
+---
+
+**¡Feliz construcción! 🚀**
---
-**¡Feliz construcción! 🚀**
\ No newline at end of file
+
+**Aviso Legal**:
+Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por la precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o inexactitudes. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos responsabilizamos por malentendidos o interpretaciones erróneas que surjan del uso de esta traducción.
+
\ No newline at end of file
diff --git a/translations/fr/.co-op-translator.json b/translations/fr/.co-op-translator.json
index 48de57c..7833011 100644
--- a/translations/fr/.co-op-translator.json
+++ b/translations/fr/.co-op-translator.json
@@ -18,8 +18,8 @@
"language_code": "fr"
},
"README.md": {
- "original_hash": "0b61923b9eede59c8981d411f7ed9b50",
- "translation_date": "2026-04-20T15:23:45+00:00",
+ "original_hash": "b0ed8bccef85263eafdc2d2432d3ca19",
+ "translation_date": "2026-04-24T10:39:25+00:00",
"source_file": "README.md",
"language_code": "fr"
},
diff --git a/translations/fr/README.md b/translations/fr/README.md
index 3bc876e..6877e1d 100644
--- a/translations/fr/README.md
+++ b/translations/fr/README.md
@@ -2,11 +2,39 @@
-# Atelier Foundry Local - Créez des applications IA en local
+# Atelier Foundry Local - Créez des applications IA sur l’appareil
Un atelier pratique pour exécuter des modèles de langage sur votre propre machine et créer des applications intelligentes avec [Foundry Local](https://foundrylocal.ai) et le [Microsoft Agent Framework](https://learn.microsoft.com/en-us/agent-framework/).
-> **Qu’est-ce que Foundry Local ?** Foundry Local est un environnement d’exécution léger qui vous permet de télécharger, gérer et servir des modèles de langage entièrement sur votre matériel. Il expose une **API compatible OpenAI** afin que tout outil ou SDK compatible OpenAI puisse se connecter - aucun compte cloud requis.
+> **Qu’est-ce que Foundry Local ?** Foundry Local est un runtime léger qui vous permet de télécharger, gérer et servir des modèles de langage directement sur votre matériel. Il expose une **API compatible OpenAI** afin que tout outil ou SDK utilisant OpenAI puisse se connecter - aucun compte cloud requis.
+
+### 🌐 Support multilingue
+
+#### Pris en charge via GitHub Action (Automatisé et toujours à jour)
+
+
+[Arabe](../ar/README.md) | [Bengali](../bn/README.md) | [Bulgare](../bg/README.md) | [Birman (Myanmar)](../my/README.md) | [Chinois (Simplifié)](../zh-CN/README.md) | [Chinois (Traditionnel, Hong Kong)](../zh-HK/README.md) | [Chinois (Traditionnel, Macau)](../zh-MO/README.md) | [Chinois (Traditionnel, Taïwan)](../zh-TW/README.md) | [Croate](../hr/README.md) | [Tchèque](../cs/README.md) | [Danois](../da/README.md) | [Néerlandais](../nl/README.md) | [Estonien](../et/README.md) | [Finnois](../fi/README.md) | [Français](./README.md) | [Allemand](../de/README.md) | [Grec](../el/README.md) | [Hébreu](../he/README.md) | [Hindi](../hi/README.md) | [Hongrois](../hu/README.md) | [Indonésien](../id/README.md) | [Italien](../it/README.md) | [Japonais](../ja/README.md) | [Kannada](../kn/README.md) | [Khmer](../km/README.md) | [Coréen](../ko/README.md) | [Lituanien](../lt/README.md) | [Malais](../ms/README.md) | [Malayalam](../ml/README.md) | [Marathi](../mr/README.md) | [Népalais](../ne/README.md) | [Pidgin nigérian](../pcm/README.md) | [Norvégien](../no/README.md) | [Persan (Farsi)](../fa/README.md) | [Polonais](../pl/README.md) | [Portugais (Brésil)](../pt-BR/README.md) | [Portugais (Portugal)](../pt-PT/README.md) | [Pendjabi (Gurmukhi)](../pa/README.md) | [Roumain](../ro/README.md) | [Russe](../ru/README.md) | [Serbe (Cyrillique)](../sr/README.md) | [Slovaque](../sk/README.md) | [Slovène](../sl/README.md) | [Espagnol](../es/README.md) | [Swahili](../sw/README.md) | [Suédois](../sv/README.md) | [Tagalog (Philippin)](../tl/README.md) | [Tamoul](../ta/README.md) | [Telugu](../te/README.md) | [Thaï](../th/README.md) | [Turc](../tr/README.md) | [Ukrainien](../uk/README.md) | [Ourdou](../ur/README.md) | [Vietnamien](../vi/README.md)
+
+> **Vous préférez cloner en local ?**
+>
+> Ce dépôt comprend plus de 50 traductions ce qui augmente significativement la taille du téléchargement. Pour cloner sans les traductions, utilisez le checkout sparse :
+>
+> **Bash / macOS / Linux :**
+> ```bash
+> git clone --filter=blob:none --sparse https://github.com/microsoft-foundry/Foundry-Local-Lab.git
+> cd Foundry-Local-Lab
+> git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'
+> ```
+>
+> **CMD (Windows) :**
+> ```cmd
+> git clone --filter=blob:none --sparse https://github.com/microsoft-foundry/Foundry-Local-Lab.git
+> cd Foundry-Local-Lab
+> git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"
+> ```
+>
+> Cela vous fournit tout ce dont vous avez besoin pour suivre le cours avec un téléchargement beaucoup plus rapide.
+
---
@@ -16,18 +44,18 @@ Un atelier pratique pour exécuter des modèles de langage sur votre propre mach
| # | Objectif |
|---|-----------|
-| 1 | Installer Foundry Local et gérer les modèles avec le CLI |
-| 2 | Maîtriser l’API Foundry Local SDK pour la gestion programmatique des modèles |
+| 1 | Installer Foundry Local et gérer les modèles avec l’interface CLI |
+| 2 | Maîtriser l’API SDK de Foundry Local pour la gestion programmatique des modèles |
| 3 | Se connecter au serveur d’inférence local via les SDK Python, JavaScript et C# |
| 4 | Construire un pipeline de génération augmentée par récupération (RAG) qui fonde les réponses sur vos propres données |
-| 5 | Créer des agents IA avec des instructions et des personas persistants |
+| 5 | Créer des agents IA avec instructions et personas persistants |
| 6 | Orchestrer des workflows multi-agents avec boucles de rétroaction |
-| 7 | Explorer une application de synthèse en production - le Zava Creative Writer |
-| 8 | Construire des cadres d’évaluation avec jeux de données golden et notation LLM-en-juge |
-| 9 | Transcrire de l’audio avec Whisper - reconnaissance vocale en local via le Foundry Local SDK |
+| 7 | Explorer une application de clôture en production - le Zava Creative Writer |
+| 8 | Construire des cadres d’évaluation avec des jeux de données de référence et un système de notation LLM-en-arbitre |
+| 9 | Transcrire de l’audio avec Whisper - reconnaissance vocale locale via le SDK Foundry Local |
| 10 | Compiler et exécuter des modèles personnalisés ou Hugging Face avec ONNX Runtime GenAI et Foundry Local |
-| 11 | Permettre aux modèles locaux d’appeler des fonctions externes avec le modèle d’appel d’outil |
-| 12 | Créer une interface web pour le Zava Creative Writer avec streaming en temps réel |
+| 11 | Permettre aux modèles locaux d’appeler des fonctions externes avec le modèle de tool-calling |
+| 12 | Créer une interface utilisateur navigateur pour Zava Creative Writer avec streaming en temps réel |
---
@@ -35,26 +63,26 @@ Un atelier pratique pour exécuter des modèles de langage sur votre propre mach
| Exigence | Détails |
|-------------|---------|
-| **Matériel** | Minimum 8 Go RAM (16 Go recommandé) ; CPU compatible AVX2 ou GPU supporté |
+| **Matériel** | Au minimum 8 Go de RAM (16 Go recommandés) ; CPU avec AVX2 ou GPU compatible |
| **Système d’exploitation** | Windows 10/11 (x64/ARM), Windows Server 2025, ou macOS 13+ |
-| **Foundry Local CLI** | Installation via `winget install Microsoft.FoundryLocal` (Windows) ou `brew tap microsoft/foundrylocal && brew install foundrylocal` (macOS). Voir le [guide de démarrage](https://learn.microsoft.com/en-us/azure/foundry-local/get-started) pour détails. |
+| **CLI Foundry Local** | Installer via `winget install Microsoft.FoundryLocal` (Windows) ou `brew tap microsoft/foundrylocal && brew install foundrylocal` (macOS). Voir le [guide de démarrage](https://learn.microsoft.com/en-us/azure/foundry-local/get-started) pour les détails. |
| **Environnement d’exécution** | **Python 3.9+** et/ou **.NET 9.0+** et/ou **Node.js 18+** |
| **Git** | Pour cloner ce dépôt |
---
-## Démarrage
+## Démarrage rapide
```bash
# 1. Cloner le dépôt
git clone https://github.com/microsoft-foundry/foundry-local-lab.git
cd foundry-local-lab
-# 2. Vérifiez que Foundry Local est installé
+# 2. Vérifier que Foundry Local est installé
foundry model list # Lister les modèles disponibles
-foundry model run phi-3.5-mini # Démarrer une conversation interactive
+foundry model run phi-3.5-mini # Démarrer une discussion interactive
-# 3. Choisissez votre filière linguistique (voir le laboratoire Partie 2 pour l'installation complète)
+# 3. Choisissez votre parcours linguistique (voir le laboratoire Partie 2 pour la configuration complète)
```
| Langage | Démarrage rapide |
@@ -69,41 +97,41 @@ foundry model run phi-3.5-mini # Démarrer une conversation interactive
### Partie 1 : Premiers pas avec Foundry Local
-**Guide lab :** [`labs/part1-getting-started.md`](labs/part1-getting-started.md)
+**Guide laboratoire :** [`labs/part1-getting-started.md`](labs/part1-getting-started.md)
-- Qu’est-ce que Foundry Local et comment ça fonctionne
-- Installation du CLI sur Windows et macOS
-- Explorer les modèles : liste, téléchargement, exécution
-- Comprendre les alias de modèles et ports dynamiques
+- Qu’est-ce que Foundry Local et comment cela fonctionne
+- Installation de la CLI sur Windows et macOS
+- Exploration des modèles - liste, téléchargement, exécution
+- Comprendre les alias de modèles et les ports dynamiques
---
-### Partie 2 : Approfondissement du SDK Foundry Local
+### Partie 2 : Exploration approfondie du SDK Foundry Local
-**Guide lab :** [`labs/part2-foundry-local-sdk.md`](labs/part2-foundry-local-sdk.md)
+**Guide laboratoire :** [`labs/part2-foundry-local-sdk.md`](labs/part2-foundry-local-sdk.md)
-- Pourquoi utiliser le SDK plutôt que le CLI pour le développement d’applications
+- Pourquoi utiliser le SDK plutôt que la CLI pour le développement d’applications
- Référence complète de l’API SDK pour Python, JavaScript et C#
-- Gestion du service, navigation dans le catalogue, cycle de vie du modèle (téléchargement, chargement, déchargement)
-- Modèles de démarrage rapide : bootstrap constructeur Python, `init()` JavaScript, `CreateAsync()` C#
-- Métadonnées `FoundryModelInfo`, alias et sélection optimale du modèle selon le matériel
+- Gestion du service, navigation dans le catalogue, cycle de vie des modèles (téléchargement, chargement, déchargement)
+- Patrones de démarrage rapide : bootstrap constructeur Python, `init()` JavaScript, `CreateAsync()` C#
+- Métadonnées `FoundryModelInfo`, alias et sélection des modèles optimaux selon le matériel
---
-### Partie 3 : SDK et API
+### Partie 3 : SDKs et APIs
-**Guide lab :** [`labs/part3-sdk-and-apis.md`](labs/part3-sdk-and-apis.md)
+**Guide laboratoire :** [`labs/part3-sdk-and-apis.md`](labs/part3-sdk-and-apis.md)
-- Connexion à Foundry Local depuis Python, JavaScript, et C#
-- Utiliser le SDK Foundry Local pour gérer le service de façon programmatique
-- Streaming des complétions de chat via l’API compatible OpenAI
+- Connexion à Foundry Local depuis Python, JavaScript et C#
+- Utilisation du SDK Foundry Local pour gérer le service de manière programmatique
+- Diffusion en continu des complétions de chat via l’API compatible OpenAI
- Référence des méthodes SDK pour chaque langage
**Exemples de code :**
| Langage | Fichier | Description |
|----------|------|-------------|
-| Python | `python/foundry-local.py` | Chat de base en streaming |
+| Python | `python/foundry-local.py` | Chat en streaming basique |
| C# | `csharp/BasicChat.cs` | Chat en streaming avec .NET |
| JavaScript | `javascript/foundry-local.mjs` | Chat en streaming avec Node.js |
@@ -111,13 +139,13 @@ foundry model run phi-3.5-mini # Démarrer une conversation interactive
### Partie 4 : Génération augmentée par récupération (RAG)
-**Guide lab :** [`labs/part4-rag-fundamentals.md`](labs/part4-rag-fundamentals.md)
+**Guide laboratoire :** [`labs/part4-rag-fundamentals.md`](labs/part4-rag-fundamentals.md)
-- Qu’est-ce que RAG et son importance
-- Construire une base de connaissances en mémoire
-- Récupération par chevauchement de mots-clés avec scoring
-- Composer des prompts système fondés
-- Exécuter un pipeline RAG complet en local
+- Qu’est-ce que la RAG et pourquoi c’est important
+- Construction d’une base de connaissances en mémoire
+- Récupération par recoupement de mots-clés avec score
+- Composition de prompts système ancrés
+- Exécution d’un pipeline RAG complet sur appareil
**Exemples de code :**
@@ -129,13 +157,13 @@ foundry model run phi-3.5-mini # Démarrer une conversation interactive
---
-### Partie 5 : Création d’agents IA
+### Partie 5 : Construction d’agents IA
-**Guide lab :** [`labs/part5-single-agents.md`](labs/part5-single-agents.md)
+**Guide laboratoire :** [`labs/part5-single-agents.md`](labs/part5-single-agents.md)
-- Qu’est-ce qu’un agent IA (vs. un appel LLM brut)
-- Le pattern `ChatAgent` et Microsoft Agent Framework
-- Instructions système, personas, conversations multi-tours
+- Qu’est-ce qu’un agent IA (par rapport à un appel brut de LLM)
+- Le pattern `ChatAgent` et le Microsoft Agent Framework
+- Instructions système, personas et conversations à plusieurs tours
- Sortie structurée (JSON) des agents
**Exemples de code :**
@@ -150,12 +178,12 @@ foundry model run phi-3.5-mini # Démarrer une conversation interactive
### Partie 6 : Workflows multi-agents
-**Guide lab :** [`labs/part6-multi-agent-workflows.md`](labs/part6-multi-agent-workflows.md)
+**Guide laboratoire :** [`labs/part6-multi-agent-workflows.md`](labs/part6-multi-agent-workflows.md)
-- Pipelines multi-agents : Chercheur → Rédacteur → Éditeur
-- Orchestration séquentielle et boucles de feedback
-- Configuration partagée et transfert structuré
-- Concevoir votre propre workflow multi-agents
+- Pipelines multi-agents : Chercheur → Écrivain → Éditeur
+- Orchestration séquentielle et boucles de rétroaction
+- Configuration partagée et transferts structurés
+- Conception de votre propre workflow multi-agents
**Exemples de code :**
@@ -167,14 +195,14 @@ foundry model run phi-3.5-mini # Démarrer une conversation interactive
---
-### Partie 7 : Zava Creative Writer - Application de synthèse
+### Partie 7 : Zava Creative Writer - Application de clôture
-**Guide lab :** [`labs/part7-zava-creative-writer.md`](labs/part7-zava-creative-writer.md)
+**Guide laboratoire :** [`labs/part7-zava-creative-writer.md`](labs/part7-zava-creative-writer.md)
- Application multi-agents de style production avec 4 agents spécialisés
- Pipeline séquentiel avec boucles de rétroaction pilotées par évaluateur
-- Sortie en streaming, recherche dans catalogue produit, transferts JSON structurés
-- Implémentation complète en Python (FastAPI), JavaScript (Node.js CLI), et C# (console .NET)
+- Sortie streaming, recherche dans le catalogue produit, transferts JSON structurés
+- Implémentation complète en Python (FastAPI), JavaScript (Node.js CLI) et C# (console .NET)
**Exemples de code :**
@@ -186,15 +214,15 @@ foundry model run phi-3.5-mini # Démarrer une conversation interactive
---
-### Partie 8 : Développement guidé par l’évaluation
+### Partie 8 : Développement piloté par l’évaluation
-**Guide lab :** [`labs/part8-evaluation-led-development.md`](labs/part8-evaluation-led-development.md)
+**Guide laboratoire :** [`labs/part8-evaluation-led-development.md`](labs/part8-evaluation-led-development.md)
-- Construire un cadre d’évaluation systématique pour agents IA avec jeux de données golden
-- Vérifications basées sur règles (longueur, couverture de mots-clés, termes interdits) + notation LLM-en-juge
-- Comparaison côte à côte de variantes de prompts avec tableaux de scores agrégés
-- Prolonge le pattern agent Éditeur Zava de la partie 7 en suite de tests hors ligne
-- Parcours Python, JavaScript, et C#
+- Construire un cadre d’évaluation systématique pour les agents IA utilisant des jeux de données de référence
+- Vérifications basées sur des règles (longueur, couverture de mots-clés, termes interdits) + notation LLM-en-arbitre
+- Comparaison côte-à-côte des variantes de prompt avec fiches de score agrégées
+- Étend le pattern Zava Editor agent de la Partie 7 dans une suite de tests hors ligne
+- Parcours Python, JavaScript et C#
**Exemples de code :**
@@ -208,12 +236,11 @@ foundry model run phi-3.5-mini # Démarrer une conversation interactive
### Partie 9 : Transcription vocale avec Whisper
-**Guide lab :** [`labs/part9-whisper-voice-transcription.md`](labs/part9-whisper-voice-transcription.md)
-
-- Transcription de la parole en texte avec OpenAI Whisper localement
-- Traitement audio respectueux de la vie privée - l’audio ne quitte jamais votre appareil
-- Parcours Python, JavaScript, et C# avec `client.audio.transcriptions.create()` (Python/JS) et `AudioClient.TranscribeAudioAsync()` (C#)
-- Contient des fichiers audio exemples à thème Zava pour pratique
+**Guide laboratoire :** [`labs/part9-whisper-voice-transcription.md`](labs/part9-whisper-voice-transcription.md)
+- Transcription vocale en texte avec OpenAI Whisper fonctionnant localement
+- Traitement audio axé sur la confidentialité - l'audio ne quitte jamais votre appareil
+- Parcours Python, JavaScript et C# avec `client.audio.transcriptions.create()` (Python/JS) et `AudioClient.TranscribeAudioAsync()` (C#)
+- Comprend des fichiers audio d'exemple thématiques Zava pour la pratique
**Exemples de code :**
@@ -223,77 +250,78 @@ foundry model run phi-3.5-mini # Démarrer une conversation interactive
| C# | `csharp/WhisperTranscription.cs` | Transcription vocale Whisper |
| JavaScript | `javascript/foundry-local-whisper.mjs` | Transcription vocale Whisper |
-> **Note :** Ce lab utilise le **Foundry Local SDK** pour télécharger et charger programmatiquement le modèle Whisper, puis envoie l’audio à l’endpoint local compatible OpenAI pour transcription. Le modèle Whisper (`whisper`) est listé dans le catalogue Foundry Local et s’exécute entièrement en local - aucune clé API cloud ou accès réseau requis.
+> **Note :** Ce laboratoire utilise le **Foundry Local SDK** pour télécharger et charger programmétiquement le modèle Whisper, puis envoie l'audio au point de terminaison local compatible OpenAI pour la transcription. Le modèle Whisper (`whisper`) est listé dans le catalogue Foundry Local et fonctionne entièrement sur l'appareil - aucune clé d'API cloud ni accès réseau requis.
---
### Partie 10 : Utilisation de modèles personnalisés ou Hugging Face
-**Guide lab :** [`labs/part10-custom-models.md`](labs/part10-custom-models.md)
+**Guide du laboratoire :** [`labs/part10-custom-models.md`](labs/part10-custom-models.md)
-- Compiler les modèles Hugging Face au format ONNX optimisé avec ONNX Runtime GenAI model builder
-- Compilation spécifique au matériel (CPU, GPU NVIDIA, DirectML, WebGPU) et quantification (int4, fp16, bf16)
-- Créer les fichiers de configuration de template de chat pour Foundry Local
-- Ajouter les modèles compilés au cache Foundry Local
-- Exécuter les modèles personnalisés via CLI, API REST, et SDK OpenAI
-- Exemple de référence : compilation bout-en-bout de Qwen/Qwen3-0.6B
+- Compilation des modèles Hugging Face au format ONNX optimisé avec l'outil ONNX Runtime GenAI
+- Compilation spécifique au matériel (CPU, GPU NVIDIA, DirectML, WebGPU) et quantification (int4, fp16, bf16)
+- Création des fichiers de configuration de template de chat pour Foundry Local
+- Ajout des modèles compilés au cache de Foundry Local
+- Exécution des modèles personnalisés via la CLI, l'API REST et le SDK OpenAI
+- Exemple de référence : compilation bout en bout de Qwen/Qwen3-0.6B
---
-### Partie 11 : Appel d’outils avec modèles locaux
+### Partie 11 : Appel d'outils avec des modèles locaux
-**Guide lab :** [`labs/part11-tool-calling.md`](labs/part11-tool-calling.md)
+**Guide du laboratoire :** [`labs/part11-tool-calling.md`](labs/part11-tool-calling.md)
-- Permettre aux modèles locaux d’appeler des fonctions externes (appel d’outil/fonction)
-- Définir les schémas d’outil selon le format OpenAI function-calling
-- Gérer la conversation multi-tours d’appel d’outil
-- Exécuter les appels d’outil localement et retourner les résultats au modèle
-- Choisir le bon modèle pour les scénarios d’appel d’outil (Qwen 2.5, Phi-4-mini)
-- Utiliser le `ChatClient` natif du SDK pour appel d’outil (JavaScript)
+- Permettre aux modèles locaux d'appeler des fonctions externes (appel d'outils/fonctions)
+- Définition des schémas d'outils utilisant le format d'appel de fonctions OpenAI
+- Gestion du flux de conversation multi-tours d'appel d'outils
+- Exécution locale des appels d'outils et renvoi des résultats au modèle
+- Choix du modèle adapté aux scénarios d'appel d'outils (Qwen 2.5, Phi-4-mini)
+- Utilisation du `ChatClient` natif du SDK pour l'appel d'outils (JavaScript)
**Exemples de code :**
| Langage | Fichier | Description |
|----------|------|-------------|
-| Python | `python/foundry-local-tool-calling.py` | Appel d’outil avec outils météo/population |
-| C# | `csharp/ToolCalling.cs` | Appel d’outil avec .NET |
-| JavaScript | `javascript/foundry-local-tool-calling.mjs` | Appel d’outil avec ChatClient |
+| Python | `python/foundry-local-tool-calling.py` | Appel d'outils avec outils météo/population |
+| C# | `csharp/ToolCalling.cs` | Appel d'outils avec .NET |
+| JavaScript | `javascript/foundry-local-tool-calling.mjs` | Appel d'outils avec ChatClient |
---
-### Partie 12 : Création d’une interface web pour le Zava Creative Writer
+### Partie 12 : Création d'une interface Web pour Zava Creative Writer
-**Guide lab :** [`labs/part12-zava-ui.md`](labs/part12-zava-ui.md)
+**Guide du laboratoire :** [`labs/part12-zava-ui.md`](labs/part12-zava-ui.md)
-- Ajouter une interface navigateur pour le Zava Creative Writer
-- Servir l’interface partagée depuis Python (FastAPI), JavaScript (HTTP Node.js), et C# (ASP.NET Core)
-- Consommer du NDJSON en streaming dans le navigateur avec Fetch API et ReadableStream
-- Badges de statut agent en direct et streaming en temps réel du texte des articles
+- Ajout d'une interface frontale basée sur navigateur à Zava Creative Writer
+- Service de l'interface partagée à partir de Python (FastAPI), JavaScript (Node.js HTTP), et C# (ASP.NET Core)
+- Consommation de NDJSON en streaming dans le navigateur avec Fetch API et ReadableStream
+- Badges de statut d'agent en direct et diffusion en temps réel du texte des articles
-**Code (interface partagée) :**
+**Code (UI partagée) :**
| Fichier | Description |
|------|-------------|
| `zava-creative-writer-local/ui/index.html` | Mise en page de la page |
-| `zava-creative-writer-local/ui/style.css` | Styles |
+| `zava-creative-writer-local/ui/style.css` | Style |
| `zava-creative-writer-local/ui/app.js` | Lecteur de flux et logique de mise à jour du DOM |
-**Ajouts Backend :**
+**Ajouts backend :**
| Langage | Fichier | Description |
|----------|------|-------------|
-| Python | `zava-creative-writer-local/src/api/main.py` | Mis à jour pour servir l’interface statique |
-| JavaScript | `zava-creative-writer-local/src/javascript/server.mjs` | Nouveau serveur HTTP encapsulant l’orchestrateur |
+| Python | `zava-creative-writer-local/src/api/main.py` | Mis à jour pour servir l'UI statique |
+| JavaScript | `zava-creative-writer-local/src/javascript/server.mjs` | Nouveau serveur HTTP enveloppant l'orchestrateur |
| C# | `zava-creative-writer-local/src/csharp-web/Program.cs` | Nouveau projet minimal API ASP.NET Core |
---
### Partie 13 : Atelier terminé
-**Guide du laboratoire :** [`labs/part13-workshop-complete.md`](labs/part13-workshop-complete.md)
-- Résumé de tout ce que vous avez construit à travers les 12 parties
-- Idées supplémentaires pour étendre vos applications
-- Liens vers des ressources et documentation
+**Guide du laboratoire :** [`labs/part13-workshop-complete.md`](labs/part13-workshop-complete.md)
+
+- Résumé de tout ce que vous avez construit dans les 12 parties
+- Idées supplémentaires pour étendre vos applications
+- Liens vers des ressources et documentation
---
@@ -381,7 +409,7 @@ foundry model run phi-3.5-mini # Démarrer une conversation interactive
| Ressource | Lien |
|----------|------|
-| Site Foundry Local | [foundrylocal.ai](https://foundrylocal.ai) |
+| Site web Foundry Local | [foundrylocal.ai](https://foundrylocal.ai) |
| Catalogue de modèles | [foundrylocal.ai/models](https://www.foundrylocal.ai/models) |
| Foundry Local GitHub | [github.com/microsoft/foundry-local](https://github.com/microsoft/foundry-local) |
| Guide de démarrage | [Microsoft Learn - Foundry Local](https://learn.microsoft.com/en-us/azure/foundry-local/get-started) |
@@ -398,4 +426,11 @@ Ce matériel d'atelier est fourni à des fins éducatives.
---
-**Bonne construction ! 🚀**
\ No newline at end of file
+**Bonne construction ! 🚀**
+
+---
+
+
+**Avertissement** :
+Ce document a été traduit à l’aide du service de traduction IA [Co-op Translator](https://github.com/Azure/co-op-translator). Bien que nous nous efforcions d’assurer l’exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue native doit être considéré comme la source faisant autorité. Pour les informations critiques, une traduction professionnelle humaine est recommandée. Nous ne sommes pas responsables des malentendus ou des mauvaises interprétations résultant de l’utilisation de cette traduction.
+
\ No newline at end of file