Ein KI-gestützter Desktop-Assistent, der in Echtzeit kontextbezogene Erklärungen während Live-Gesprächen liefert.
Willkommen beim Real-time Contextual Assistant! Dieses Projekt ist eine eigenständige Desktop-Anwendung, die entwickelt wurde, um virtuelle Meetings, Vorlesungen und Präsentationen zu verbessern. Sie hört aktiv bei Gesprächen zu und liefert den Benutzern sofortige, kontextbezogene Informationen. Wenn beispielsweise ein komplexer Fachbegriff erwähnt wird, zeigt der Assistent sofort eine prägnante Erklärung an, sodass die Teilnehmer dem Gespräch ohne Unterbrechung folgen können.
Diese Echtzeitfähigkeit ist der Kern unserer Innovation und nutzt eine moderne, serviceorientierte Architektur, um Funktionen bereitzustellen, die selbst von führenden Plattformen noch nicht vollständig unterstützt werden.
Unser System basiert auf einem modernen, asynchronen Stack, der für hochleistungsfähige Echtzeit-KI-Verarbeitung ausgelegt ist.
| Kategorie | Technologien |
|---|---|
| Frontend | |
| Backend | |
| KI & Sprache | |
| Echtzeit-Kommunikation |
Die Anwendung besteht aus einer Sammlung unabhängiger Dienste, die in Echtzeit kommunizieren. Dieses entkoppelte Design gewährleistet Stabilität und Skalierbarkeit.
Die Hauptkomponenten sind:
- System Runner: Ein Master-Skript, das alle anderen Dienste startet, überwacht und herunterfährt.
- STT-Modul: Ein dedizierter Prozess zur Erfassung von Mikrofon-Audio und zur Durchführung einer hochleistungsfähigen Speech-to-Text-Umwandlung.
- Backend (FastAPI): Der zentrale Hub, der Clients verwaltet, Nachrichten weiterleitet und die KI-Pipeline orchestriert.
- Frontend (Electron): Die benutzerseitige Desktop-Anwendung, die die Echtzeitinformationen anzeigt.
Für einen tiefen Einblick in unsere technische Implementierung lesen Sie bitte unser detailliertes Architektur-Dokument.
Befolgen Sie diese Schritte, um das Projekt lokal einzurichten und auszuführen.
- Python 3.10+
- Node.js 18+ und
npm - Ollama muss auf Ihrem lokalen Rechner installiert sein und laufen.
- Wenn Sie Windows nutzen, müssen Sie die Entwicklermodus (Developer Mode) anschalten. Einstellungen > Erweitert > Entwicklermodus
-
Repository klonen:
git clone [https://github.com/your-repo/your-project.git](https://github.com/your-repo/your-project.git) cd your-project -
Backend einrichten (Python):
# Eine virtuelle Umgebung erstellen und aktivieren python3 -m venv .venv source .venv/bin/activate # Python-Abhängigkeiten aus dem Stammverzeichnis installieren pip install -r requirements.txt
-
Frontend einrichten (Node.js):
# In das Frontend-Verzeichnis wechseln cd Frontend # Node.js-Abhängigkeiten installieren npm install cd ..
-
KI-Modell einrichten (Ollama): Laden Sie das erforderliche LLM herunter. Wir verwenden derzeit
llama3.2.ollama pull llama3.2
Gehen Sie in das Verzeichnis initial_install. Falls Sie Windows benutzen: öffnen Sie bitte die
```bash
windows-initial-install.bat
```
Datei in Visual Studio Code.
Falls Sie Linux verwenden: öffnen Sie bitte ein Terminal und führen Sie folgende Anweisung aus:
bash chmod +x linux-initial-setup.sh && ./linux-initial-setup.sh
Das Skript wird nach erfolgreichem Installationsvorgang das System starten. (durch Glockenton erkennbar)
Fortan, wenn Sie die Anwendung starten wollen, funktioniert das wie folgt:
Starten Sie das gesamte System mit dem Haupt-Runner-Skript aus dem Stammverzeichnis des Projekts:
python SystemRunner.pyDas Skript startet das Backend, das STT-Modul und die Electron-Anwendung.
